Cuando se piensa en el hardware necesario para la IA, la imagen es simple y contundente: la revolución de la inteligencia artificial es sinónimo de Nvidia y sus imponentes GPUs. Es lógico que Nvidia sea el top of mind, considerando que actualmente es la mayor empresa en términos de valuación de mercado, tras un meteórico crecimiento desde su negocio histórico de placas gráficas para gamers y diseñadores multimedia hasta posicionarse donde hoy está: en el corazón de la revolución de la IA. Sin embargo, se trata de una imagen incompleta. Hay otros actores —algunos con menos visibilidad, otros trabajando en los márgenes— que conforman un mapa de infraestructura de IA mucho más complejo de lo que se percibe a simple vista. En estos momentos se está desarrollando un ecosistema completo de procesadores que intervienen complementando a Nvidia o compitiendo con ella, aunque de forma incipiente por ahora.
En materia de complementación, hay dos áreas que, aunque sin tanto glamour, son claves para el funcionamiento de un datacenter de IA. Aunque Nvidia domine actualmente el cómputo, el ecosistema depende críticamente de dos componentes que están lejos de los reflectores: la memoria avanzada y la interconexión de alta velocidad. Sin estos elementos, las GPUs más potentes resultan inútiles.
La memoria no es un tema menor en el uso de IA, ya que debe estar a la altura del procesador para no convertirse en un cuello de botella. De hecho, se utilizan memorias HBM (High Bandwidth Memory o memoria de alto ancho de banda), que están físicamente integradas con la GPU en un único paquete. En el caso de Nvidia, la coreana SK Hynix es el principal proveedor de estas memorias. El otro gran jugador capaz de competir en esta área es otra empresa coreana: Samsung. Entre ambas concentran dos tercios de los ingresos globales por memorias. Una señal de lo importante que es la demanda de memorias impulsada por la IA es que comienza a haber limitaciones en la capacidad de producción, lo que está impactando en el precio de las memorias en general e impulsando la suba de precios de productos como PC o smartphones.
Por otra parte, para que las GPU se comuniquen entre sí, hacen falta chips que las conecten. Ahí entra en juego Broadcom, que se beneficia del crecimiento masivo de la IA sin importar quién gane, ya que todos necesitan su infraestructura. En definitiva, Broadcom no es el “rostro visible” de la IA, pero es uno de los proveedores esenciales que hacen posible su escala. Esto le vale ser el segundo mayor productor de semiconductores por valuación de mercado, detrás de Nvidia.

Más allá de los semiconductores que intervienen en el procesamiento de IA, este consta de dos etapas: el entrenamiento y la inferencia. El entrenamiento es el proceso de aprendizaje de un modelo de IA mediante la exposición a volúmenes masivos de datos. Durante este proceso, el modelo ajusta miles de millones de parámetros internos para reconocer patrones. Es la base de los LLM (Large Language Models). Aquí se necesita una gran potencia de cálculo que tiene su contracara en un consumo energético extremadamente alto. En entrenamiento es donde brilla Nvidia y donde Google está haciendo grandes avances con sus TPU. Por su parte, la inferencia consiste en utilizar un modelo ya entrenado para generar respuestas. Cada consulta a un servicio como ChatGPT es una operación de inferencia, que requiere baja latencia para dar respuestas rápidamente, alta eficiencia energética para reducir los costos por consulta y capacidad para escalar a millones de ejecuciones simultáneas. En esta etapa buscan participar empresas como Qualcomm (con gran expertise en procesamiento de bajo consumo energético), pero también Amazon y Meta.
Por supuesto, y en línea con la teoría económica, la posición de Nvidia, con sus altos márgenes (superiores al 70%), actúa como una señal para que nuevos competidores aspiren a ingresar al mercado y disputar esa renta casi monopólica. Aquí luchan por participar proveedores clásicos en el rubro de procesadores (como AMD e Intel), aunque a una distancia considerable. Pero más interesante es el caso de sus mayores clientes, los “hiperescaladores” como Google, Amazon y Meta. Cada uno está desarrollando sus propios procesadores: Google tiene sus TPU (Tensor Processing Unit), AWS cuenta con Trainium (entrenamiento) e Inferentia (inferencia), y Meta impulsa su MTIA (Meta Training and Inference Accelerator). Estos chips no buscan ser mejores que los de Nvidia para todo el mundo, sino que están diseñados para ser más efectivos en términos de costos y estar optimizados para sus propias cargas de trabajo, sus modelos y sus nubes. La envergadura de cada uno de estos jugadores les permite aspirar a controlar toda la estructura tecnológica, desde el silicio hasta el software, reduciendo así su dependencia de proveedores externos. Sin embargo, por sus características, su uso será limitado fuera de sus propias plataformas, aunque quizás sí puedan darse negociaciones entre ellos, como las versiones que indican que Meta está en conversaciones con Google para que la primera adquiera chips TPU de la segunda y los utilice en sus centros de datos a partir de 2027.
Un dato interesante, y a la vez preocupante, es que no importa quién diseñe el chip más rápido o el más eficiente: la gran mayoría de ellos cobra vida en las fábricas de una sola empresa, la taiwanesa TSMC. Aquí nacen los chips de IA más avanzados del mundo, incluyendo —pero no limitándose a— los de Nvidia. Su posición dominante se basa en la ventaja competitiva que le da un liderazgo tecnológico por ahora inalcanzable, dominando los procesos de fabricación más avanzados. Esto la convierte en una pieza absolutamente insustituible de la cadena de valor actual. Sin embargo, esta centralización crea un riesgo mayor: la exposición a las tensiones geopolíticas en Taiwán. Toda la industria global de IA, por lo tanto, depende de la estabilidad de una sola región, convirtiendo a TSMC en un punto único de fallo para la revolución tecnológica más importante de nuestro tiempo. De allí también el interés en que replique su producción en otras geografías (como en el caso de Estados Unidos).
De este repaso por el universo de los procesadores involucrados en la IA surgen empresas estadounidenses, coreanas y taiwanesas, con un gran ausente: China. A pesar de su indudable peso tecnológico en la producción de tecnología, el hecho de estar retrasada en la fabricación avanzada de chips —situación agravada por las restricciones impuestas por Estados Unidos— coloca a esta potencia económica, política y tecnológica en una situación incómoda, aunque se las arregla para no quedar muy relegada.
Queda claro entonces que el negocio de los chips de IA va mucho más allá de una carrera entre Nvidia y sus competidores. Es un entramado en el que participan diversos actores, en algunos casos complementándose y en otros superponiéndose. Pero se trata de un proceso todavía en estado de despliegue inicial, y conocer a sus actores permite no solo estimar su desarrollo futuro, sino también identificar dónde están los puntos de falla. Una partida de cartas en curso en una industria que promete ser tan o más disruptiva que la masificación de Internet de los últimos 25 años.
