cómo deshabilitar las opciones de memoria del BIOS en Windows 7


Respuesta 1:

Hace mucho tiempo, en un milenio anterior, trabajé en muchos sistemas informáticos que no tenían caché. Diablos, apenas tenían RAM, y no me refiero a las unidades de disco. La caché no era realmente necesaria en esos primeros días. La razón es que la memoria disponible tendía a ser más rápida que los procesadores que la usaban. Por ejemplo, cuando Intel presentó el procesador 286, los sistemas de memoria (tendían a ser muchos chips para los 256.000 bytes de RAM), el procesador tardaba de cuatro a ocho ciclos de reloj en acceder a la memoria. Eso significa que el acceso a la memoria podría tardar unos microsegundos o más, mientras que los chips de memoria solo necesitarían entre 500 y 1500 nanosegundos. Entonces la memoria estaba esperando al procesador.

Ahora avanzamos muchos años. Mientras que las velocidades de la memoria y los procesadores aumentaron, la velocidad de los procesadores aumentó más rápido que la velocidad de la memoria. Además, la seria naturaleza paralela y de múltiples núcleos del procesador significa que el chip del procesador está accediendo a una gran cantidad de memoria a la vez. Por ejemplo, incluso si solo hubiera un núcleo, los sistemas intentarán hacer lo siguiente:

  • Accede a la instrucción actual
  • Si la instrucción actual es condicional (declaración if), el procesador intentará leer la instrucción en la ruta verdadera y también en la ruta falsa
  • Lea los datos de la instrucción. Puede haber dos o incluso tres datos según el tipo de instrucción
  • Escribe los resultados de la instrucción anterior.
  • Puede haber direccionamiento indirecto, lo que significa que el sistema necesitará leer una dirección sin memoria antes de sacar los datos de la memoria.

Eso significa que, en cualquier intervalo de tiempo, el procesador podría necesitar sacar de la memoria de cuatro a ocho datos y volver a escribir de uno a cuatro también. Procesadores modernos, a través de niveles serios de paralelo y revestimiento de tuberías. (El revestimiento de tubería significa que una instrucción se divide en subpasos. El sistema puede trabajar en diferentes subpasos de diferentes instrucciones juntas, como la decodificación de instrucciones de una instrucción, la obtención de datos de una segunda instrucción, los cálculos para dos o tres instrucciones más. instrucciones, escritura de datos incluso para otra instrucción, etc.) Con todo este procesamiento en paralelo, el procesador puede ejecutar una instrucción para cada ciclo de reloj (o algunas instrucciones por ciclo). A 2,5 GHz, cada instrucción sería de apenas 400 picosegundos (400 billonésimas de segundo).

Incluso si una memoria pudiera funcionar a 2,5 GHz, el hecho de que hubiera muchos accesos a la memoria al mismo tiempo significaría que no importa qué, la memoria no podría mantenerse al día, directamente. El almacenamiento en caché es un medio para permitir que la CPU y la memoria trabajen juntas. La memoria puede ser muy rápida o muy grande, pero no ambas. Dado que los programas modernos pueden procesar miles de millones de datos, necesita tanto grandes como rápidos, y ahí es donde entra el almacenamiento en caché.

Con un caché, puede tener una pequeña porción de memoria realmente rápida (unos pocos millones de bytes o menos). El procesador puede acceder a esta memoria a su velocidad. Si esta memoria es una parte integral del procesador, todas las señales permanecen en el chip y, por lo tanto, la memoria puede ir tan rápido como el procesador. Si los datos no están en la caché, el sistema debe esperar mientras el administrador de memoria busca los datos reales. Con los diversos procesos en paralelo, una ruta de instrucción puede detenerse mientras que otras pueden continuar, manteniendo el procesamiento general en marcha.

Si todas las solicitudes de datos están fuera de la caché, el sistema se detendrá ya que accede a memorias más lentas para obtener los datos reales. Si el procesamiento de la caché, el procesamiento de instrucciones y el sistema de memoria se diseñan correctamente, el impacto general de las "fallas" de la caché es bastante bajo, manteniendo el procesador alimentado con datos e instrucciones.

Ahora, eliminemos el caché (configurando la máquina del tiempo en la década de 1980) y veamos qué sucede. El sistema tendrá que esperar cada acceso a la memoria. Si el acceso a la memoria toma un ciclo de reloj, entonces vemos algo interesante de inmediato. Una instrucción simple como ADD A, B, C significa que habrá un ciclo para la búsqueda de instrucciones, un ciclo para leer A y B y luego un ciclo para escribir C. Agregue un ciclo para el procesamiento real, y esta instrucción podría tomar cinco ciclos de reloj en lugar de uno. Si A es una dirección, en lugar de un dato, entonces está la lectura de A y luego la lectura de los datos a los que A apunta. Si bien el procesamiento de la tubería aún puede mejorar el procesamiento general del sistema, ahora la mayor parte del sistema está bloqueado leyendo y escribiendo memoria, y no procesando datos. Eso significa que el proceso cayó de 2.5 GHz a 0.50 GHz. Si se agregan llamadas a subrutinas, creación dinámica de datos (en una pila), etc., el procesador podría bajar a 0.10 GHz o una 25ava parte de la capacidad de procesamiento del sistema en caché completo.

Pero espera, hay más. Una forma de hacer que el sistema funcione más rápido es separar la memoria de instrucciones de la memoria de datos (arquitectura de Harvard). Tener múltiples memorias de datos también permitiría un acceso más paralelo a la memoria para acelerar el procesamiento. Con dos memorias de datos, una memoria de instrucciones y muchos registros internos, el sistema podría volver a subir aproximadamente a un GHz. Si luego agregamos un hiperproceso o un segundo núcleo, la disputa por la memoria reduciría el procesador a 0.10 GHz.

Eso significa que el procesamiento general se limita a la velocidad de la memoria y al número de diferentes tipos de bloques de memoria. Agregar más bloques de memoria aumenta la velocidad también aumenta la complejidad de la programación. Los bloques de memoria se convierten en una especie de caché, ya que es posible que deba mover datos por la memoria para obtener diferentes datos en diferentes bloques para un procesamiento adecuado.

Lo que todo esto significa es que sin caché el sistema está limitado a lo que puede hacer la memoria y eso puede hacer que el sistema sea significativamente más lento que un sistema moderno. También significa que los compiladores y programadores tendrán más dificultades para optimizar un sistema porque no tendría las técnicas de optimización de hardware.

Sin embargo, afortunadamente, tenemos muchos niveles de caché con muchos bloques de caché y sistemas de control de caché que permiten que el hardware se optimice y procese en función de lo que aprende de los programas que está ejecutando. El resultado final es que una computadora procesa y almacena datos hoy en día aproximadamente 50 millones de veces más rápido que mi primera computadora de 1978. Lo que eso significa que el tipo de programas que vemos es para una pregunta diferente.


Respuesta 2:

En primer lugar, no estoy seguro de si estás preguntando sobre la posibilidad o no, pero es imposible porque el caché está integrado en la CPU.

Debido a que está integrado en la CPU, es extremadamente rápido y la CPU puede mantener la información que necesita allí de inmediato para hacer un montón de cálculos. Si eliminó eso, entonces la CPU tendría que obtener la información hacia y desde la RAM real cada vez que realiza una operación.

Imagina esto; Estás haciendo trabajos de mantenimiento en tu casa. Tienes un cinturón de herramientas en el que caben un par de herramientas y una caja de herramientas con todo lo demás. La caja de herramientas normalmente se almacena en el garaje, pero la sacó para comenzar a trabajar en un proyecto. En este ejemplo, usted es la CPU, el garaje es el disco duro, la caja de herramientas es la RAM, su cinturón de herramientas es el caché y el proyecto es una aplicación. Tus manos representan de alguna manera los núcleos de tu CPU.

Entonces, si está trabajando en un proyecto, instalando estantes, por ejemplo, y está en la escalera, normalmente puede tener un nivel, un destornillador, los soportes de montaje, un lápiz y algunos tornillos en su bolsillo. Normalmente, solo sube y monta el estante con un viaje porque todo lo que necesita está en su cinturón de herramientas.

Ahora lo que ha hecho es eliminar su cinturón de herramientas de la ecuación. Tienes que bajar la escalera, levantar el nivel y el soporte. Sube por la escalera, baja tu soporte y nivela, vuelve a bajar y toma un lápiz. Vuelve y marca tus agujeros. Vuelve a bajar con el nivel y el lápiz, vuelve a subir con un tornillo y un destornillador. Coloque un tornillo en el primer orificio, vuelva a bajar y obtenga un segundo tornillo y repita hasta que termine su tarea.

De manera similar, si la computadora no tuviera caché, entonces la CPU estaría trabajando en una tarea y dejaría de trabajar en la tarea para obtener información hacia y desde la RAM. Haría esto en cada cálculo. Considere que potencialmente se realizaron miles de instrucciones para una tarea aparentemente simple, por lo que esa tarea se interrumpiría después de un conjunto de instrucciones cada vez más pequeño.


Respuesta 3:

La memoria caché de la CPU está directamente integrada en la matriz de la CPU de un microprocesador.

Las CPU más antiguas (con caché) tenían caché l2 en forma de chips separados en la placa base o el paquete, pero siempre tenían un l1 pequeño ubicado en la matriz para los datos más utilizados.

Intel Pentium 2 en factor de forma slot-1. La caché L2 está presente como los 2 chips de la derecha. Imagen de

http://cpu-world.com

Si de alguna manera pudieras eliminar todos los cachés generales y de alguna manera terminar con una CPU funcional (que no lo harías, ya que los cachés son una parte integral de la arquitectura de una CPU), terminarías con una CPU órdenes de magnitud más lenta de lo habitual, como estaría completamente limitado por la latencia de los accesos a la memoria DRAM.

De hecho, escribí una respuesta más detallada sobre cuán lenta sería exactamente una CPU moderna sin cachés. Sin embargo, los resultados que obtuve fueron los mejores, ya que asumí un acceso a memoria contiguo, no un montón de accesos aleatorios, lo que ralentiza las cosas un poco más. Eso lo puedes encontrar aquí :

La respuesta de Luc Boulesteix a ¿Qué tan lento sería un procesador x86-64 actual sin caché mientras realiza las tareas diarias?


Respuesta 4:

Creo que te refieres a eliminar la caché del procesador. Los cachés están integrados en el chip y no son externos como los DIMM que tienen chips DRAM.

Tom responde tu pregunta en pocas palabras, tu computadora será lenta.

Los cachés ayudan con la localidad espacial y temporal, que muchos programas utilizan de una u otra forma. Sin cachés, cada acceso tiene que ir a DRAM, que es un tiempo de acceso prolongado, lo que resulta en la ejecución del programa / aplicación.

Los procesadores de estos días también tienen registros para activar o desactivar la caché. Si se permite el acceso, puede intentar deshabilitarlos y ejecutar su programa y ver cómo afecta el rendimiento.


Respuesta 5:

Cada jerarquía de caché representa aproximadamente log (n) en ahorros de latencia. Aquí hay un gráfico de Excel rápido y sucio que preparé:

El gráfico se vería un poco diferente si excluyera los dispositivos de almacenamiento, pero es una buena regla general. Los programas informáticos dependen en gran medida del rendimiento de la caché, por lo que la respuesta a su pregunta es "nada bueno".

La pregunta interesante, para mí, es si los problemas de aprendizaje de la IA son fundamentalmente "con mucha memoria" en el sentido de que no se pueden almacenar en caché y, por lo tanto, están sujetos a latencias de disco o RAM lentas. Un experto en inteligencia artificial que conozco sostiene este punto de manera convincente.


Respuesta 6:

La memoria caché de la CPU se utiliza para almacenar datos que se utilizan con frecuencia. La caché de la CPU es muy rápida, más rápida que la RAM y está ubicada en la CPU, más cerca de los núcleos de procesamiento. Sin caché todo será mucho más lento porque se necesitará más tiempo para acceder a la misma información. Supongo que sería como la diferencia entre ejecutar su sistema operativo en un disco duro y en un SSD. Pero potencialmente con peor rendimiento porque la caché almacena los datos de acceso más frecuente a los que se accede muchas veces.

Caché de CPU - Wikipedia

Respuesta 7:

Si la caché fuera deshabilitada o eliminada, el sistema o dispositivo asociado con la caché quedaría en desventaja y tendría que volver a la fuente de los datos que, de lo contrario, se almacenarían en caché en un disco o en la red. Una transferencia de datos que podría realizarse cientos de veces por segundo podría tardar unos segundos. Entonces, cientos de transferencias de datos que tomarían un segundo tomarían varios minutos.

La buena noticia es que la mayoría de los equipos modernos no tienen caché extraíble.


Respuesta 8:

La mayoría de las computadoras modernas le permiten desactivar la mayoría de los niveles de memoria caché del procesador (a menudo denominados "nivel 0" o L0, "nivel 1" o L1, etc.). En una PC, esto se hace en la "configuración del BIOS ”. Todo lo que tienes que hacer es apagar todos esos cachés para ver qué le sucede a la computadora.

Háganos saber lo que encuentre … ;-)


Respuesta 9:

No puede 'eliminar' la memoria caché porque está ubicada en el propio chip de la CPU.

Esa es una muestra de la CPU Intel de séptima generación de cuatro núcleos. Todas las densas estructuras de color amarillo / naranja son cachés y búferes basados ​​en SRAM.


Respuesta 10:

Si se quita la memoria caché de la computadora, toda la unidad del sistema es lenta porque la memoria caché es la memoria pequeña más rápida en el sistema informático, por lo que el sistema no puede funcionar fácilmente en la memoria RAM