De los videojuegos a la inteligencia artificial

Publicado por Ruta N -

Artículo por el Centro de Pensamiento Ruta N. 

Nvidia nació en 1999 con un objetivo: hacer que los videojuegos se vieran mejor. Sus tarjetas gráficas calculaban millones de píxeles simultáneamente para renderizar imágenes en tiempo real. Nadie, ni los propios fundadores, anticipaba lo que vendría.

En 2006, Nvidia publicó algo llamado CUDA: una forma de "hablarle" a esas tarjetas gráficas en un lenguaje que los programadores pudieran usar para cualquier tipo de cálculo, no solo gráficos. Fue como descubrir que la cocina industrial que construiste para hacer pizzas también sirve perfectamente para producir medicamentos.


Tres investigadores de la Universidad de Toronto tomaron una red neuronal, un algoritmo que imita vagamente cómo aprende el cerebro, y la entrenaron usando GPUs de Nvidia. El resultado batió todos los récords existentes en reconocimiento de imágenes. Fue el momento en que el mundo científico entendió que las tarjetas de videojuegos eran, en realidad, el motor que la inteligencia artificial necesitaba.


Entrenar la IA, bloque a bloque 


Entrenar un modelo de inteligencia artificial es como enseñarle a un estudiante leyendo toda la biblioteca del Congreso, en todos los idiomas, varias veces. Requiere una cantidad absurda de cálculos simultáneos. Una sola GPU no alcanza. Ni cien. Se necesitan miles conectadas entre sí funcionando 


Nvidia compró una empresa llamada Mellanox, especializada precisamente en crear las "autopistas" que conectan chips dentro de un centro de datos. El resultado fue el DGX-1 en 2016: la primera computadora diseñada específicamente para aprendizaje profundo. En ese momento tenía 170 teraflops de poder de cómputo. Para entender la escala: un teraflop es un billón de operaciones matemáticas por segundo.


Desde 2016 hasta hoy, Nvidia ha lanzado generación tras generación de arquitecturas, cada una con un nombre propio, Volta, Ampere, Hopper, Blackwell, y la más reciente, Rubin, y cada una representando un salto cualitativo, no solo una mejora incremental.


La arquitectura Hopper, por ejemplo, introdujo un motor especializado en el tipo de cálculos que usan los modelos de lenguaje como ChatGPT. Fue el catalizador de la explosión de la IA generativa.


La arquitectura Blackwell conecta 72 chips funcionando como uno solo, con una velocidad de transferencia de datos interna de 130 terabytes por segundo. Para dimensionarlo: eso equivale a descargar toda la biblioteca de Netflix en menos de un segundo, continuamente.


Actualmente tenemos 40 millones de veces más poder de cómputo comparado con 2016. En ningún otro campo de la ingeniería humana ha ocurrido algo remotamente parecido en ese lapso de tiempo.


El consumo energético de la IA 


Cada vez que usas ChatGPT, Gemini, o cualquier modelo de IA, hay miles de chips trabajando en algún centro de datos del mundo. Y esos chips consumen mucha electricidad. Por eso una parte crítica del trabajo de Nvidia no es solo hacer chips más poderosos, sino hacerlos más eficientes por unidad de energía consumida.


Cada nueva generación de arquitectura busca hacer más cómputo con menos vatios. No es solo un argumento ambiental, es un argumento económico: la energía es uno de los costos más grandes de operar centros de datos a escala.


¿Y las startups? El acceso al poder computacional


Uno de los problemas del ecosistema de startups es que entrenar o usar modelos de IA requiere acceso a infraestructura que cuesta millones de dólares. Una startup no puede comprar un clúster de chips Blackwell.


La solución ha sido a través de los grandes proveedores de nube, como Amazon Web Services, Google Cloud, Microsoft Azure, que alquilan acceso a esa infraestructura por horas o minutos. Nvidia trabaja directamente con estos proveedores para garantizar que sus chips estén disponibles, y además tiene programas que ofrecen créditos a startups para que puedan experimentar sin el costo inicial.


Es el equivalente a no tener que construir tu propia planta eléctrica para prender las luces de tu negocio: simplemente te conectas a la red.


La historia de Nvidia es, la historia de una tecnología que fue construida para un propósito y terminó siendo fundamental para otro completamente distinto. Nadie en 1999 diseñó una GPU pensando en entrenar modelos de lenguaje. Pero la física del problema, millones de cálculos simples en paralelo, resultó ser exactamente lo que la inteligencia artificial necesitaba.


Fuente:
Workshop Nvidia StartCo 2026 

Tags:
Ciudadanía Noticias Ruta N Grupos de investigación Estudiantes Tendencias Formación Centro de pensamiento Destacado

Noticias relacionadas