Qué es la Ley de Moore y cómo marcó el ritmo de la evolución digital

Gordon Moore, doctor en física y cofundador de Intel, hizo en 1965 una predicción respecto de cómo aumentaría, a lo largo de los años, la cantidad de transistores en los microprocesadores, los “cerebros” de las computadoras y smartphones modernos.

Guardar
Ley de Moore vs CPUs y GPUs actuales

Se conoce como Ley de Moore a la predicción que hizo Gordon Moore, cofundador de Intel, en 1965 respecto del aumento de la cantidad de transistores en los procesadores. En aquel entonces dijo que el número se duplicaría cada año. Luego, en 1975, redefinió este concepto y explicó que este aumento ocurriría cada dos años.

Tal como explicó Moore, el número de transistores por unidad de superficie en circuitos integrados se fue duplicando aproximadamente cada 24 meses. Un circuito integrado es un conjunto de circuitos electrónicos en una pequeña pieza en un chip que son rápidos, pequeños y más económicos.

Los chips son cada vez más pequeños: el Qualcomm Snapdragon 835 de 8 nanómetros junto a una moneda.
Los chips son cada vez más pequeños: el Qualcomm Snapdragon 835 de 8 nanómetros junto a una moneda.

Cabe destacar que cuando se formuló la ley, los microprocesadores aún no existían, ya que estos se desarrollaron en 1971, pero años anteriores ya se habían comenzado a gestar la tecnología que daría paso a estos “cerebros” potentes que nutren a las computadoras y smartphones en la actualidad.

Durante la Segunda Guerra Mundial se desarrollaron computadores para fines militares. Entre mediados y fines de los años 40 la electrónica avanzó y se hicieron progresos en el diseño de los semiconductores. El transistor se creó en 1948 en los laboratorios Bell.

El uso del silicio y la producción masiva de los transistores popularizó este componente y se masificó su uso en los circuitos electrónicos, hacia finales de la década de 1950. En la década siguiente surgieron nuevos avances en los circuitos digitales y se hizo posible aumentar la cantidad de componentes en los circuitos integrados.

El primer microprocesador fue el Intel 4004​, que se fabricó en 1971: tenía 2.300 transistores, arquitectura de 4 bits y era capaz de ejecutar hasta 60.000 operaciones por segundo a 700 kHz. Fue el comienzo de una era.

Esta tecnología permitió abaratar costos en productos cada vez más potentes y pequeños. Este componente, clave en el avance digital, fue creciendo y mejorando de la mano de computadoras, tablets y smartphones. El chip A13 Bionic que integran los últimos iPhone 11, por ejemplo, cuenta con 8.500 millones de transistores.

MÁS SOBRE ESTE TEMA:

Guardar