¿Sin espacio en tu correo? ¿En la nube? ¿En el disco duro? La naturaleza desarrolló la solución hace millones de años
Publicado por Ruta N -Artículo por el Centro de Pensamiento Ruta N.
Mientras los chips de silicio chocan contra los límites de la física y la famosa Ley de Moore se ralentiza, la ingeniería de computadores está virando hacia un territorio fascinante: desde arquitecturas que imitan la densidad del ADN hasta el frágil salto a la computación cuántica…
Imagina que necesitas guardar la receta completa para construir a un ser humano. hablo del manual preciso de cómo construir cada proteína, cada célula, cada mecanismo bioquímico del cuerpo, cada cabello, cada pliegue de la piel. ¿Cuánto espacio necesitarías? Una biblioteca entera, quizás varias.
Ahora imagina que ese manual cabe en el núcleo de una célula que no puedes ver a simple vista. Eso es exactamente lo que hace el ADN.
El idioma de cuatro letras
El ADN almacena información usando cuatro moléculas llamadas bases nitrogenadas: adenina, timina, guanina y citosina. Se abrevian A, T, G y C. Cada posición en la cadena puede ser una de esas cuatro opciones, no dos como en el sistema binario de los computadores.
Esto importa porque la densidad de información que se puede empacar en ese esquema es matemáticamente superior. Con dos opciones por posición (0 y 1), cada posición almacena 1 bit. Con cuatro opciones, cada posición almacena 2 bits. El doble, en el mismo espacio físico.
El genoma humano tiene aproximadamente 3.200 millones de pares de bases. Si lo convirtieras a información digital, equivaldría a unos 800 megabytes. Todo eso empacado en una molécula de dos nanómetros de diámetro, enrollada con tal precisión que cabe dentro de un núcleo celular de apenas 6 micrómetros.
La densidad de almacenamiento del ADN supera en varios órdenes de magnitud cualquier dispositivo de memoria que hayamos fabricado. La naturaleza encontró esta solución hace miles de millones de años. Nosotros apenas empezamos a entender por qué funciona tan bien.
Gordon Moore y la promesa del silicio
En 1965, un ingeniero llamado Gordon Moore, cofundador de Intel, publicó una observación que se convertiría en la ley no escrita del progreso tecnológico: el número de transistores en un circuito integrado se duplicaría aproximadamente cada dos años. No era una ley de la física, sino una observación empírica que se convirtió en profecía autocumplida porque toda la industria la adoptó como objetivo.
Y durante décadas, funcionó. El Intel 4004 de 1971 tenía 2.300 transistores. Los procesadores modernos tienen decenas de miles de millones. En ese mismo período, los dispositivos de almacenamiento pasaron de ocupar habitaciones enteras a caber en un chip del tamaño de una uña.
La lógica detrás de esto es la misma que la del ADN: guardar más información en menos espacio físico. Pero mientras el ADN usa cuatro bases moleculares, los computadores usan transistores microscópicos que pueden estar en uno de dos estados: encendido o apagado, 1 o 0. Cada transistor es un bit. Cuantos más transistores quepan en un área determinada, más información puede procesarse y almacenarse.
Más transistores, menos rendimiento proporcional
Como profetizó Moore el número de transistores en un chip siguió creciendo. Pero el rendimiento que el usuario experimentaba creció mucho más lentamente. Entre 1986 y 2003, las mejoras anuales en velocidad de procesamiento eran del 52%. Entre 2011 y 2015 bajaron al 12%. Desde entonces, rondan el 3-4% anual.
El problema de añadir más y más transistores, es como añadir más carriles a una autopista, pero con semáforos cada 500 metros. El tráfico crece en número, pero la velocidad de circulación no mejora proporcionalmente.
Varias direcciones simultáneas en lugar de seguir una sola senda.
Una dirección es que si no puedes hacer los chips más delgados y densos, puedes apilarlos en capas conectadas verticalmente, como un edificio en lugar de una ciudad. Tecnologías como los chiplets permiten combinar componentes fabricados en distintos nodos tecnológicos en un solo paquete, integrando lo mejor de cada proceso de manufactura.
La segunda es la especialización. En lugar de procesadores de propósito general que hacen todo medianamente bien, han proliferado los chips diseñados para una sola clase de tarea. Cada uno optimizado para los patrones de acceso a memoria y los tipos de operaciones de su dominio específico. Este enfoque, conocido como arquitecturas de dominio específico, acepta que la era de las mejoras gratuitas por escalar transistores terminó y busca la eficiencia en el diseño, no en la miniaturización.
La tercera, que es la más especulativa, pero con avances concretos, es la computación cuántica. En lugar de transistores que están en 0 o 1, los computadores cuánticos usan qubits que pueden estar en superposición de ambos estados simultáneamente. Pero los qubits son frágiles: cualquier interacción con el entorno los perturba en un fenómeno llamado decoherencia, y las tasas de error actuales son aún demasiado altas para aplicaciones generales.
Los ingenieros de computadores están llegando, por caminos completamente distintos, a las mismas conclusiones: más dimensiones, más símbolos por posición, corrección de errores integrada en el hardware, y especialización por dominio. La ley de Moore no muere. El reto ya no es solamente empacar más transistores, sino encontrar formas más inteligentes de organizar la información en el espacio físico que la naturaleza, con tres mil millones de años de ventaja, ya descubrió.
Bibliografia
Ortega, J., Anguita, M., Prieto, A., Cañas, A., Damas, M., Díaz, A. F., Fernández, J., y González, J. (2019). La hoja de ruta de la ingeniería de computadores al final de la ley de Moore y el escalado de Dennard. Enseñanza y Aprendizaje de Ingeniería de Computadores, (9), 5–27.
Tirado, F. (2017). Los procesadores y la computación en el final de la ley de Moore [Diapositivas de presentación]. Universidad Complutense de Madrid.
Zhu, F., Xu, P., y Zong, J. (2023). Moore's Law: The potential, limits, and breakthroughs. En Proceedings of the 2023 International Conference on Mechatronics and Smart Systems (pp. 307–315). https://doi.org/10.54254/2755-2721/10/20230038
