Inicio > Curiosidades, Varios > ¿Estamos próximos al fin de la Ley de Moore?

¿Estamos próximos al fin de la Ley de Moore?

Parece que si, pero vamos por partes.

¿Qué es la Ley de Moore?

Dice lo siguiente: aproximadamente cada 18 meses el número de transistores por circuito integrado se duplicará (estamos hablando de un crecimiento exponencial mantenido en el tiempo, ahí es nada…).

By Wgsimon (Own work) [CC-BY-SA-3.0 (www.creativecommons.org/licenses/by-sa/3.0) or GFDL (www.gnu.org/copyleft/fdl.html)], via Wikimedia Commons

¿y qué pasa con ésto?

A más transistores en el mismo espacio, mayor capacidad de cómputo. Por esto hemos vivido la situación en la que al año de comprar un costoso PC su precio se había sufrido una gran devaluación, y a los 2 años podíamos considerarlo obsoleto (esto también provocado porque comercialmente interesaba esta obsolescencia programada, para mantener el mercado activo, de modo que a nivel de software no se prestaba toda la atención necesaria a la optimización de recursos, sino a que cada nueva versión necesite más RAM, más procesador, buses más veloces… etc).

Los procesadores, al final no hacen más que obtener pequeños datos de sus bancos de memoria (conjuntos de 1’s y 0’s), realizar con ellos alguna operación (digamos una suma) y almacenar el resultado de nuevo en alguno de sus bancos de memoria. Tanto en el momento en el que se realiza la operación en sí (en la ALU) como en el recorrido por la circuitería interna del procesador entran en juego las puertas lógicas (agrupadas en elementos más complejos como multiplexores o decodificadores por ejemplo), y estas puertas lógicas (AND, OR, NAND, NOR, XOR…) se realizan con transistores de silicio.

La principal vía de optimización de tiempos de ejecución de operaciones, ha consistido en ir reduciendo el tamaño de estos transistores, de manera que podían ir más juntos, con lo que se reduce el tiempo mínimo necesario para realizar una operación completa (tanto las puertas lógicas como los propios circuitos necesitan un tiempo para realizar su trabajo, y ese tiempo se ve marcado por la distancia entre los elementos, y por la precisión de los mismos, ya que hay que tener en cuenta que esos 1’s y 0’s son diferentes voltajes, cuanto más cercanos estén los valores de cada uno de ellos más rápido, pero hay que asegurar que no se realicen lecturas erróneas). Hay que tener en cuenta que estamos hablando de miles de millones de operaciones por segundo (GHz, correspondiéndose con la inversa del tiempo requerido para realizar la operación más lenta en segundos), y como unidades de medida de estos elementos estamos en el orden de los nanómetros (10-9 metros).

Os enlazo una página de la wikipedia que detalla el número de transistores presente en un montón de diferentes procesadores. Como ejemplo, el Intel Core i7 tiene 731 millones de transistores (como puede verse en el gráfico).

Esta ley, empírica, fue formulada por Gordon Moore (posteriormente uno de los 2 fundadores de Intel) en 1965, y se ha ido cumpliendo hasta la actualidad.

¿porqué parece que está próxima a no poder cumplirse?

Al final chocamos con la física, la velocidad de propagación de la electricidad sobre un medio, el silicio, el propio átomo (no es posible continuar en una reducción de tamaño infinita). Parece que para poder mantener el ritmo de crecimiento (en el rendimiento, puede que el número de transistores pase a segundo plano) necesitemos una revolución de la manera en que se trata la información a nivel físico.

Os recomiendo Moore’s Law Over, Supercomputing “In Triage,” Says Expert, y la entrevista que mencionan a Thomas Sterling: ‘I Think We Will Never Reach Zettaflops’.

Anuncios
  1. 14/05/2012 en 22:16

    Estoy leyendo ahora “The Singularity is Near”… según el mismo, no parece que esto vaya a parar… cuando lo termine vuelvo por aquí a comentar 🙂

    • Jesús Rodríguez Martínez
      17/05/2012 en 04:27

      Espero que hagas una review… Aunque creo que nuestra sociedad colapsará por la estupidez y el egoísmo más que por llegar a esa singularidad…

  2. Yony
    15/05/2012 en 09:13

    Es verdad que existe un limite mínimo a la cantidad de materia en un espacio, sin embargo en ese caso tocaría empezar a entrar en conceptos de física relativista, y la posibilidad de hacer interactuar múltiples dimensiones.

  3. 16/05/2012 en 11:58

    Bueno, puede que con el grafeno la cosa cambie…y se acelere aún más

    • Jesús Rodríguez Martínez
      17/05/2012 en 04:38

      Si, llevan ya unos años trabajando con el grafeno, imagino que hará falta además del cambio a nivel físico un cambio a nivel lógico en como se trata la información.

  1. No trackbacks yet.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: