Archivo

Posts Tagged ‘Gordon Moore’

¿Estamos próximos al fin de la Ley de Moore?

Parece que si, pero vamos por partes.

¿Qué es la Ley de Moore?

Dice lo siguiente: aproximadamente cada 18 meses el número de transistores por circuito integrado se duplicará (estamos hablando de un crecimiento exponencial mantenido en el tiempo, ahí es nada…).

By Wgsimon (Own work) [CC-BY-SA-3.0 (www.creativecommons.org/licenses/by-sa/3.0) or GFDL (www.gnu.org/copyleft/fdl.html)], via Wikimedia Commons

¿y qué pasa con ésto?

A más transistores en el mismo espacio, mayor capacidad de cómputo. Por esto hemos vivido la situación en la que al año de comprar un costoso PC su precio se había sufrido una gran devaluación, y a los 2 años podíamos considerarlo obsoleto (esto también provocado porque comercialmente interesaba esta obsolescencia programada, para mantener el mercado activo, de modo que a nivel de software no se prestaba toda la atención necesaria a la optimización de recursos, sino a que cada nueva versión necesite más RAM, más procesador, buses más veloces… etc).

Los procesadores, al final no hacen más que obtener pequeños datos de sus bancos de memoria (conjuntos de 1’s y 0’s), realizar con ellos alguna operación (digamos una suma) y almacenar el resultado de nuevo en alguno de sus bancos de memoria. Tanto en el momento en el que se realiza la operación en sí (en la ALU) como en el recorrido por la circuitería interna del procesador entran en juego las puertas lógicas (agrupadas en elementos más complejos como multiplexores o decodificadores por ejemplo), y estas puertas lógicas (AND, OR, NAND, NOR, XOR…) se realizan con transistores de silicio.

La principal vía de optimización de tiempos de ejecución de operaciones, ha consistido en ir reduciendo el tamaño de estos transistores, de manera que podían ir más juntos, con lo que se reduce el tiempo mínimo necesario para realizar una operación completa (tanto las puertas lógicas como los propios circuitos necesitan un tiempo para realizar su trabajo, y ese tiempo se ve marcado por la distancia entre los elementos, y por la precisión de los mismos, ya que hay que tener en cuenta que esos 1’s y 0’s son diferentes voltajes, cuanto más cercanos estén los valores de cada uno de ellos más rápido, pero hay que asegurar que no se realicen lecturas erróneas). Hay que tener en cuenta que estamos hablando de miles de millones de operaciones por segundo (GHz, correspondiéndose con la inversa del tiempo requerido para realizar la operación más lenta en segundos), y como unidades de medida de estos elementos estamos en el orden de los nanómetros (10-9 metros).

Os enlazo una página de la wikipedia que detalla el número de transistores presente en un montón de diferentes procesadores. Como ejemplo, el Intel Core i7 tiene 731 millones de transistores (como puede verse en el gráfico).

Esta ley, empírica, fue formulada por Gordon Moore (posteriormente uno de los 2 fundadores de Intel) en 1965, y se ha ido cumpliendo hasta la actualidad.

¿porqué parece que está próxima a no poder cumplirse?

Al final chocamos con la física, la velocidad de propagación de la electricidad sobre un medio, el silicio, el propio átomo (no es posible continuar en una reducción de tamaño infinita). Parece que para poder mantener el ritmo de crecimiento (en el rendimiento, puede que el número de transistores pase a segundo plano) necesitemos una revolución de la manera en que se trata la información a nivel físico.

Os recomiendo Moore’s Law Over, Supercomputing «In Triage,» Says Expert, y la entrevista que mencionan a Thomas Sterling: ‘I Think We Will Never Reach Zettaflops’.

Anuncio publicitario
A %d blogueros les gusta esto: