Archivo

Posts Tagged ‘Computación’

¿Estamos próximos al fin de la Ley de Moore?

Parece que si, pero vamos por partes.

¿Qué es la Ley de Moore?

Dice lo siguiente: aproximadamente cada 18 meses el número de transistores por circuito integrado se duplicará (estamos hablando de un crecimiento exponencial mantenido en el tiempo, ahí es nada…).

By Wgsimon (Own work) [CC-BY-SA-3.0 (www.creativecommons.org/licenses/by-sa/3.0) or GFDL (www.gnu.org/copyleft/fdl.html)], via Wikimedia Commons

¿y qué pasa con ésto?

A más transistores en el mismo espacio, mayor capacidad de cómputo. Por esto hemos vivido la situación en la que al año de comprar un costoso PC su precio se había sufrido una gran devaluación, y a los 2 años podíamos considerarlo obsoleto (esto también provocado porque comercialmente interesaba esta obsolescencia programada, para mantener el mercado activo, de modo que a nivel de software no se prestaba toda la atención necesaria a la optimización de recursos, sino a que cada nueva versión necesite más RAM, más procesador, buses más veloces… etc).

Los procesadores, al final no hacen más que obtener pequeños datos de sus bancos de memoria (conjuntos de 1’s y 0’s), realizar con ellos alguna operación (digamos una suma) y almacenar el resultado de nuevo en alguno de sus bancos de memoria. Tanto en el momento en el que se realiza la operación en sí (en la ALU) como en el recorrido por la circuitería interna del procesador entran en juego las puertas lógicas (agrupadas en elementos más complejos como multiplexores o decodificadores por ejemplo), y estas puertas lógicas (AND, OR, NAND, NOR, XOR…) se realizan con transistores de silicio.

La principal vía de optimización de tiempos de ejecución de operaciones, ha consistido en ir reduciendo el tamaño de estos transistores, de manera que podían ir más juntos, con lo que se reduce el tiempo mínimo necesario para realizar una operación completa (tanto las puertas lógicas como los propios circuitos necesitan un tiempo para realizar su trabajo, y ese tiempo se ve marcado por la distancia entre los elementos, y por la precisión de los mismos, ya que hay que tener en cuenta que esos 1’s y 0’s son diferentes voltajes, cuanto más cercanos estén los valores de cada uno de ellos más rápido, pero hay que asegurar que no se realicen lecturas erróneas). Hay que tener en cuenta que estamos hablando de miles de millones de operaciones por segundo (GHz, correspondiéndose con la inversa del tiempo requerido para realizar la operación más lenta en segundos), y como unidades de medida de estos elementos estamos en el orden de los nanómetros (10-9 metros).

Os enlazo una página de la wikipedia que detalla el número de transistores presente en un montón de diferentes procesadores. Como ejemplo, el Intel Core i7 tiene 731 millones de transistores (como puede verse en el gráfico).

Esta ley, empírica, fue formulada por Gordon Moore (posteriormente uno de los 2 fundadores de Intel) en 1965, y se ha ido cumpliendo hasta la actualidad.

¿porqué parece que está próxima a no poder cumplirse?

Al final chocamos con la física, la velocidad de propagación de la electricidad sobre un medio, el silicio, el propio átomo (no es posible continuar en una reducción de tamaño infinita). Parece que para poder mantener el ritmo de crecimiento (en el rendimiento, puede que el número de transistores pase a segundo plano) necesitemos una revolución de la manera en que se trata la información a nivel físico.

Os recomiendo Moore’s Law Over, Supercomputing «In Triage,» Says Expert, y la entrevista que mencionan a Thomas Sterling: ‘I Think We Will Never Reach Zettaflops’.

Anuncio publicitario

Alan Turing: algoritmos, criptografía y cianuro

Alan Turing

Image via Wikipedia

Alan Turing es un personaje que todos los ingenieros conocemos, pero que no ha obtenido el reconocimiento global que se merece. Es un personaje crucial en el mundo de la computación, que hoy en día es uno de los mayores pilares de nuestras sociedades, y nuestro mayor medio de evolución durante los últimos años.

Maquina de Turing

Diseñada hace ya más de 70 años, permite resolver cualquier problema que se resuelva mediante un algoritmo, es decir, cualquier problema que pueda resolver la computación digital.

Básicamente está formada por tres partes:

  • Un alfabeto: un conjunto de símbolos definidos.
  • Una cinta: sobre la que se puede leer y escribir, y hacerla avanzar o retroceder.
  • Una máquina de estados: un conjunto de estados con transiciones definidas entre ellos.

Así de simple, y así de potente, personalmente le debo una asignatura anual (Teoría de Autómatas y Lenguajes Formales), así que tengo un grato recuerdo de su funcionamiento (más sobre la Máquina de Turing).

Premio Turing

Este premio otorgado por la Association for Computing Machinery se considera que es el equivalente de los premios nobel en el campo de la computación, concedido anualmente desde 1966. (más información Premio Turing).

Su prematura muerte

Entramos en la mezquindad social con la que fue tratado. Además de todas sus aportaciones para el mundo de la computación, durante la 2ª guerra mundial llegó a tener un importante papel en el trabajo criptográfico realizado contra los nazis.

Sin embargo, años después, en el proceso de investigación de un robo en su casa, Turing reconoció su homosexualidad, y fue acusado de «indecencia grave y perversión sexual», no llegó a defenderse, al considerar que no tenía de que defenderse. Resultado: 2 años de prisión o castración química… eligió la 2ª opción, y 2 años después se suicidó (a los 42 años, envenenado con cianuro).

En 2009 el gobierno Británico, a través de su primer ministro (Gordon Brown), presentó un comunicado disculpándose por como había sido tratado en vida Turing. ¿más vale tarde que nunca? bueno, valer no vale, pero es mejor que nada, la historia está ahí para aprender de los aciertos y de los errores.

A %d blogueros les gusta esto: