{"id":14370,"date":"2025-12-05T00:02:00","date_gmt":"2025-12-05T03:02:00","guid":{"rendered":"https:\/\/comentarios.info\/?p=14370"},"modified":"2025-12-04T17:33:26","modified_gmt":"2025-12-04T20:33:26","slug":"radiografia-del-hardware-de-ia","status":"publish","type":"post","link":"https:\/\/comentarios.info\/index.php\/2025\/12\/05\/radiografia-del-hardware-de-ia\/","title":{"rendered":"Radiograf\u00eda del hardware de IA"},"content":{"rendered":"\n<p>Cuando se piensa en el hardware necesario para la IA, la imagen es simple y contundente: <strong>la revoluci\u00f3n de la inteligencia artificial es sin\u00f3nimo de Nvidia<\/strong> y sus imponentes GPUs. Es l\u00f3gico que Nvidia sea el <em>top of mind<\/em>, considerando que actualmente es la mayor empresa en t\u00e9rminos de valuaci\u00f3n de mercado, tras un mete\u00f3rico crecimiento desde su negocio hist\u00f3rico de placas gr\u00e1ficas para gamers y dise\u00f1adores multimedia hasta posicionarse donde hoy est\u00e1: en el coraz\u00f3n de la revoluci\u00f3n de la IA. <strong>Sin embargo, se trata de una imagen incompleta<\/strong>. Hay otros actores \u2014algunos con menos visibilidad, otros trabajando en los m\u00e1rgenes\u2014 que conforman un mapa de infraestructura de IA mucho m\u00e1s complejo de lo que se percibe a simple vista. En estos momentos se est\u00e1 desarrollando un ecosistema completo de procesadores que intervienen complementando a Nvidia o compitiendo con ella, aunque de forma incipiente por ahora.<\/p>\n\n\n\n<p>En materia de complementaci\u00f3n, hay dos \u00e1reas que, aunque sin tanto <em>glamour<\/em>, son claves para el funcionamiento de un datacenter de IA. Aunque Nvidia domine actualmente el c\u00f3mputo, <strong>el ecosistema depende cr\u00edticamente de dos componentes que est\u00e1n lejos de los reflectores: la memoria avanzada y la interconexi\u00f3n de alta velocidad<\/strong>. Sin estos elementos, las GPUs m\u00e1s potentes resultan in\u00fatiles.<\/p>\n\n\n\n<!--more-->\n\n\n\n<p>La memoria no es un tema menor en el uso de IA, ya que debe estar a la altura del procesador para no convertirse en un cuello de botella. De hecho, se utilizan memorias HBM (High Bandwidth Memory o memoria de alto ancho de banda), que est\u00e1n f\u00edsicamente integradas con la GPU en un \u00fanico paquete. En el caso de Nvidia, la coreana SK Hynix es el principal proveedor de estas memorias. El otro gran jugador capaz de competir en esta \u00e1rea es otra empresa coreana: Samsung. <strong>Entre ambas concentran dos <a href=\"https:\/\/reuters.com\/world\/china\/ai-frenzy-is-driving-new-global-supply-chain-crisis-2025-12-03\/\">tercios de los ingresos globales<\/a> por memorias<\/strong>. Una se\u00f1al de lo importante que es la demanda de memorias impulsada por la IA es que comienza a haber limitaciones en la capacidad de producci\u00f3n, lo que est\u00e1 impactando en el precio de las memorias en general e impulsando la suba de precios de productos como PC o smartphones.<\/p>\n\n\n\n<p>Por otra parte, para que las GPU se comuniquen entre s\u00ed, hacen falta chips que las conecten. Ah\u00ed entra en juego Broadcom, que se beneficia del crecimiento masivo de la IA sin importar qui\u00e9n gane, ya que todos necesitan su infraestructura. En definitiva, Broadcom no es el &#8220;rostro visible&#8221; de la IA, pero <strong>es uno de los proveedores esenciales que hacen posible su escala<\/strong>. Esto le vale ser el segundo mayor productor de semiconductores por valuaci\u00f3n de mercado, detr\u00e1s de Nvidia.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" width=\"720\" height=\"959\" src=\"https:\/\/i0.wp.com\/comentarios.info\/wp-content\/uploads\/2025\/12\/Imagen-Global-Semiconductor-Industry-Market-Cap_Site.jpeg?resize=720%2C959&#038;ssl=1\" alt=\"\" class=\"wp-image-14371\" srcset=\"https:\/\/i0.wp.com\/comentarios.info\/wp-content\/uploads\/2025\/12\/Imagen-Global-Semiconductor-Industry-Market-Cap_Site.jpeg?resize=769%2C1024&amp;ssl=1 769w, https:\/\/i0.wp.com\/comentarios.info\/wp-content\/uploads\/2025\/12\/Imagen-Global-Semiconductor-Industry-Market-Cap_Site.jpeg?resize=225%2C300&amp;ssl=1 225w, https:\/\/i0.wp.com\/comentarios.info\/wp-content\/uploads\/2025\/12\/Imagen-Global-Semiconductor-Industry-Market-Cap_Site.jpeg?resize=768%2C1023&amp;ssl=1 768w, https:\/\/i0.wp.com\/comentarios.info\/wp-content\/uploads\/2025\/12\/Imagen-Global-Semiconductor-Industry-Market-Cap_Site.jpeg?resize=1153%2C1536&amp;ssl=1 1153w, https:\/\/i0.wp.com\/comentarios.info\/wp-content\/uploads\/2025\/12\/Imagen-Global-Semiconductor-Industry-Market-Cap_Site.jpeg?resize=720%2C959&amp;ssl=1 720w, https:\/\/i0.wp.com\/comentarios.info\/wp-content\/uploads\/2025\/12\/Imagen-Global-Semiconductor-Industry-Market-Cap_Site.jpeg?resize=580%2C772&amp;ssl=1 580w, https:\/\/i0.wp.com\/comentarios.info\/wp-content\/uploads\/2025\/12\/Imagen-Global-Semiconductor-Industry-Market-Cap_Site.jpeg?resize=320%2C426&amp;ssl=1 320w, https:\/\/i0.wp.com\/comentarios.info\/wp-content\/uploads\/2025\/12\/Imagen-Global-Semiconductor-Industry-Market-Cap_Site.jpeg?w=1200&amp;ssl=1 1200w\" sizes=\"auto, (max-width: 720px) 100vw, 720px\" \/><\/figure>\n\n\n\n<p>M\u00e1s all\u00e1 de los semiconductores que intervienen en el procesamiento de IA, este consta de dos etapas: el entrenamiento y la inferencia. <strong>El entrenamiento es el proceso de aprendizaje de un modelo de IA mediante la exposici\u00f3n a vol\u00famenes masivos de datos<\/strong>. Durante este proceso, el modelo ajusta miles de millones de par\u00e1metros internos para reconocer patrones. Es la base de los LLM (Large Language Models). Aqu\u00ed se necesita una gran potencia de c\u00e1lculo que tiene su contracara en un consumo energ\u00e9tico extremadamente alto. En entrenamiento es donde brilla Nvidia y donde Google est\u00e1 haciendo grandes avances con sus TPU. Por su parte, <strong>la inferencia consiste en utilizar un modelo ya entrenado para generar respuestas<\/strong>. Cada consulta a un servicio como ChatGPT es una operaci\u00f3n de inferencia, que requiere baja latencia para dar respuestas r\u00e1pidamente, alta eficiencia energ\u00e9tica para reducir los costos por consulta y capacidad para escalar a millones de ejecuciones simult\u00e1neas. En esta etapa buscan participar empresas como Qualcomm (con gran expertise en procesamiento de bajo consumo energ\u00e9tico), pero tambi\u00e9n Amazon y Meta.<\/p>\n\n\n\n<p>Por supuesto, y en l\u00ednea con la teor\u00eda econ\u00f3mica, la posici\u00f3n de Nvidia, con sus altos m\u00e1rgenes (superiores al 70%), act\u00faa como <strong>una se\u00f1al para que nuevos competidores aspiren a ingresar al mercado y disputar esa renta casi monop\u00f3lica<\/strong>. Aqu\u00ed luchan por participar proveedores cl\u00e1sicos en el rubro de procesadores (como AMD e Intel), aunque a una distancia considerable. <strong>Pero m\u00e1s interesante es el caso de sus mayores clientes<\/strong>, los &#8220;hiperescaladores&#8221; como Google, Amazon y Meta. Cada uno est\u00e1 desarrollando sus propios procesadores: Google tiene sus TPU (Tensor Processing Unit), AWS cuenta con Trainium (entrenamiento) e Inferentia (inferencia), y Meta impulsa su MTIA (Meta Training and Inference Accelerator). Estos chips no buscan ser mejores que los de Nvidia para todo el mundo, sino que est\u00e1n dise\u00f1ados para ser m\u00e1s efectivos en t\u00e9rminos de costos y estar optimizados para sus propias cargas de trabajo, sus modelos y sus nubes. La envergadura de cada uno de estos jugadores les permite aspirar a controlar toda la estructura tecnol\u00f3gica, desde el silicio hasta el software, reduciendo as\u00ed su dependencia de proveedores externos. Sin embargo, por sus caracter\u00edsticas, su uso ser\u00e1 limitado fuera de sus propias plataformas, aunque quiz\u00e1s s\u00ed puedan darse negociaciones entre ellos, como las versiones que indican que <a href=\"https:\/\/es.finance.yahoo.com\/noticias\/meta-conversaciones-gastar-miles-millones-125945912.html\">Meta est\u00e1 en conversaciones con Google<\/a> para que la primera adquiera chips TPU de la segunda y los utilice en sus centros de datos a partir de 2027.<\/p>\n\n\n\n<p>Un dato interesante, y a la vez preocupante, es que no importa qui\u00e9n dise\u00f1e el chip m\u00e1s r\u00e1pido o el m\u00e1s eficiente: <strong>la gran mayor\u00eda de ellos cobra vida en las f\u00e1bricas de una sola empresa, la taiwanesa TSMC<\/strong>. Aqu\u00ed nacen los chips de IA m\u00e1s avanzados del mundo, incluyendo \u2014pero no limit\u00e1ndose a\u2014 los de Nvidia. Su posici\u00f3n dominante se basa en la ventaja competitiva que le da un liderazgo tecnol\u00f3gico por ahora inalcanzable, dominando los procesos de fabricaci\u00f3n m\u00e1s avanzados. Esto la convierte en una pieza absolutamente insustituible de la cadena de valor actual. Sin embargo, <strong>esta centralizaci\u00f3n crea un riesgo mayor: la exposici\u00f3n a las tensiones geopol\u00edticas en Taiw\u00e1n<\/strong>. Toda la industria global de IA, por lo tanto, depende de la estabilidad de una sola regi\u00f3n, convirtiendo a TSMC en un punto \u00fanico de fallo para la revoluci\u00f3n tecnol\u00f3gica m\u00e1s importante de nuestro tiempo. De all\u00ed tambi\u00e9n el inter\u00e9s en que replique su producci\u00f3n en otras geograf\u00edas (como en el caso de Estados Unidos).<\/p>\n\n\n\n<p>De este repaso por el universo de los procesadores involucrados en la IA surgen empresas estadounidenses, coreanas y taiwanesas, con <strong>un gran ausente: China<\/strong>. A pesar de su indudable peso tecnol\u00f3gico en la producci\u00f3n de tecnolog\u00eda, el hecho de estar retrasada en la fabricaci\u00f3n avanzada de chips \u2014situaci\u00f3n agravada por las restricciones impuestas por Estados Unidos\u2014 coloca a esta potencia econ\u00f3mica, pol\u00edtica y tecnol\u00f3gica en una situaci\u00f3n inc\u00f3moda, <a href=\"https:\/\/www.ft.com\/content\/96fe9898-a3a4-4a33-be1d-da06bdb6cb2b?accessToken=zwAAAZt6Ak2NkdOW_piYo6RKM9O-HdoGvbbLKwE.MEQCIAUqnRf4CT0WLgO09QwlaXm8x-hBdJ0XlZ8CtC2N8v3YAiAFlp4KDVvv1Y2S6kMVi97VEhIeTjy2sNQFy3RyI2auGQ&amp;segmentId=96fe9898-a3a4-4a33-be1d-da06bdb6cb2b\">aunque se las arregla<\/a> para no quedar muy relegada.<\/p>\n\n\n\n<p>Queda claro entonces que el negocio de los chips de IA va mucho m\u00e1s all\u00e1 de una carrera entre Nvidia y sus competidores. Es un entramado en el que participan diversos actores, en algunos casos complement\u00e1ndose y en otros superponi\u00e9ndose. Pero se trata de un proceso todav\u00eda en estado de despliegue inicial, y conocer a sus actores <strong>permite no solo estimar su desarrollo futuro, sino tambi\u00e9n identificar d\u00f3nde est\u00e1n los puntos de falla<\/strong>. Una partida de cartas en curso en una industria que promete ser tan o m\u00e1s disruptiva que la masificaci\u00f3n de Internet de los \u00faltimos 25 a\u00f1os.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Cuando se piensa en el hardware necesario para la IA, la imagen es simple y contundente: la revoluci\u00f3n de la inteligencia artificial es sin\u00f3nimo de Nvidia y sus imponentes GPUs. Es l\u00f3gico que Nvidia sea el top of mind, considerando que actualmente es la mayor empresa en t\u00e9rminos de valuaci\u00f3n de mercado, tras un mete\u00f3rico [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[198,130,1219,2789,3085,3355,38,3352,3188,3356,40,3354,3128,3061,3351,3353,3060],"class_list":["post-14370","post","type-post","status-publish","format-standard","hentry","category-uncategorized","tag-amazon","tag-amd","tag-aws","tag-broadcom","tag-chips","tag-entrenamiento","tag-google","tag-gpu","tag-ia","tag-inferencia","tag-intel","tag-llm","tag-meta","tag-nvidia","tag-procesadores","tag-tpu","tag-tsmc"],"aioseo_notices":[],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/comentarios.info\/index.php\/wp-json\/wp\/v2\/posts\/14370","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/comentarios.info\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/comentarios.info\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/comentarios.info\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/comentarios.info\/index.php\/wp-json\/wp\/v2\/comments?post=14370"}],"version-history":[{"count":1,"href":"https:\/\/comentarios.info\/index.php\/wp-json\/wp\/v2\/posts\/14370\/revisions"}],"predecessor-version":[{"id":14372,"href":"https:\/\/comentarios.info\/index.php\/wp-json\/wp\/v2\/posts\/14370\/revisions\/14372"}],"wp:attachment":[{"href":"https:\/\/comentarios.info\/index.php\/wp-json\/wp\/v2\/media?parent=14370"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/comentarios.info\/index.php\/wp-json\/wp\/v2\/categories?post=14370"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/comentarios.info\/index.php\/wp-json\/wp\/v2\/tags?post=14370"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}