Por qué la ley de Moore es clave incluso si deja de existir

Por si no lo sabías, la computadora o el teléfono inteligente en el que estás leyendo este artículo, así como sus generaciones anteriores, han respondido a una máxima que ha marcado de manera casi inexorable el desarrollo de la tecnología: la ley de Moore.

La ley de Moore es una observación realizada el 19 de abril de 1965 por Gordon Moore, el cofundador de Intel, que sostiene que cada 24 meses se duplicará el número de transistores en un microprocesador (aunque en su forma original eran 12 meses, más tarde la modificó).

Cuando Moore planteó su teoría, los procesadores medían sobre los 10 micrométros (µm), entre siete y ocho veces menos que el diámetro del cabello humano (70 µm a 80 µm).

Hoy, los miles de millones de transistores de los chips se miden en nanómetros —que equivale a 0.001 micrómetros—y son casi imperceptibles por el ojo humano. Por lo mismo, cada vez resulta más caro para las empresas mantenerse al día; la actual escasez de chips es la mejor prueba de ello.

Sin embargo, en septiembre de 2020, Apple lanzó el procesador A14 Bionic, el primero con tecnología de 5 nanómetros. Se podría esperar un chip de 3 nm aparezca durante 2022 y uno de 1 nm en 2024, que sería el límite para la tecnología de semiconductores de silicio.

Si la ley de Moore continúa su marcha hasta 2050, los ingenieros se verán obligados a construir transistores a partir de componentes más pequeños que un átomo de hidrógeno, el más simple que existe. Debido a esto, muchos son los que sostienen que esta máxima desaparecerá en algún momento de la década de 2020.

Respuestas a la Ley de Moore

Ley de Moor y procesadores

¿Qué pasará después?, ¿se detendrá el progreso tecnológico? Estas son algunas razones por las que, incluso si la ley de Moore se termina, no será el fin del progreso de la computación.

Algoritmos y software

Exprimir un mayor rendimiento de los chips se convertirá en prioridad para los desarrolladores de software. Si bien hay avances, los programadores no se habían preocupado por simplificar los códigos, porque sabían que los procesadores podrán ejecutarlos. La optimización del software puede brindar un crecimiento mayor, incluso sin mejoras de hardware.

Especialización

Otra alternativa son los procesadores cada vez más especializados. Las unidades de procesamiento de gráficos (GPU) son un ejemplo. Sin embargo, también se podrían usar para redes neuronales, visión artificial, reconocimiento de voz y el internet de las cosas.

Procesamiento en la nube

Si bien muchas de las funciones de tu computadora, tableta o teléfono inteligente se procesan en el dispositivo, un número cada vez mayor no lo hace. Con la computación en la nube, gran parte del trabajo pesado se puede realizar en otros lugares.

Computación cuántica

Las computadoras cuánticas son una tecnología experimental y cara; difieren de las que conocemos, que se basan en transistores. Al usar bits cuánticos, pueden ser más rápidas y eficientes que las computadoras convencionales.

No es que se acabe el desarrollo

A pesar de su nombre, no es una ley universal. Más bien se trata de una tendencia observable. Por lo mismo, que no haya una duplicación de transistores en un chip cada 24 meses no significa que el progreso se detendrá. Solo que, eventualmente, la velocidad en las mejoras será más lenta.

Recomendaciones del editor