La creciente demanda de modelos de inteligencia artificial de gran tamaño está impulsando a las grandes empresas tecnológicas a desafiar el dominio de Nvidia en el mercado de chips de IA. Amazon, siguiendo los pasos de Google, ha lanzado sus propios chips de IA con mayor eficiencia energética, marcando un posible punto de inflexión en este sector.
Las empresas están adoptando una estrategia de diseño directo de estructuras de computación, impulsadas por la acumulación de costos, problemas de suministro y demandas de energía. La capacidad de las empresas tecnológicas para mejorar la “eficiencia energética” (rendimiento por vatio) con sus propios chips de IA plantea la cuestión de si podrán desafiar la posición dominante de Nvidia.
● Google, Amazon y OpenAI apuestan por el desarrollo de chips propios
Amazon Web Services (AWS) anunció el 2 de diciembre (hora local) el lanzamiento oficial de su chip de IA personalizado, ‘Trainium 3’, durante su evento anual ‘AWS re:Invent 2025’ en Las Vegas. AWS también lanzó un servidor ultra con hasta 144 chips Trainium 3, disponibles desde ese mismo día.
Según AWS, el Trainium 3 ofrece un rendimiento computacional cuatro veces mayor que la generación anterior de sus propios chips, al tiempo que reduce el consumo de energía en un 40%. AWS afirma que el uso de Trainium 3 puede reducir los costos de entrenamiento y operación de modelos de IA hasta en un 50% en comparación con los sistemas que utilizan unidades de procesamiento gráfico (GPU) equivalentes. Matt Garman, CEO de AWS, enfatizó en su discurso principal que “Trainium 3 ofrece la mejor eficiencia de costo por vatio en la industria en las áreas de entrenamiento e inferencia de IA”.
La unidad de procesamiento tensorial (TPU) desarrollada por Google también destaca por su bajo consumo de energía y reducción de costos operativos. El TPU es el chip de IA que impulsa el aprendizaje y la ejecución del modelo de IA ‘Gemini 3’ de Google, recientemente lanzado y aclamado, y fue creado en colaboración con Broadcom, una empresa estadounidense de diseño de semiconductores. La startup de IA Anthropic planea utilizar hasta 1 millón de TPU para desarrollar modelos de IA, y se informa que Meta también introducirá los TPU de Google en sus propios centros de datos. OpenAI también se ha asociado con Broadcom para desarrollar conjuntamente un chip de IA personalizado para el entrenamiento y la ejecución de sus modelos de IA, como ChatGPT.
La principal razón por la que las grandes empresas tecnológicas están desarrollando sus propios chips de IA es asegurar un suministro estable y reducir costos. Las GPU de Nvidia, capaces de procesar grandes cantidades de datos simultáneamente, son esenciales en el ecosistema de la IA, pero sufren de una escasez crónica, incluso para aquellos que pueden permitírselas. A medida que la inversión en IA se expande a nivel mundial, Nvidia, que fue la primera en lanzar las GPU al mercado, se ha convertido en el líder indiscutible. Nvidia tiene una cuota de mercado del 90% en el mercado de chips de IA basados en GPU. Además, el precio de cada GPU oscila entre 30.000 y 40.000 dólares (aproximadamente 44 a 59 millones de wones). Considerando también los costos de energía, las empresas tecnológicas han llegado a la conclusión de que es ventajoso a largo plazo adoptar chips dedicados optimizados para cálculos específicos para aumentar la eficiencia.
La diferencia en las características de los servicios de cada empresa también es una razón para el desarrollo de chips de IA personalizados. Por ejemplo, AWS necesita chips de IA para la nube, mientras que Google necesita chips de IA para el entrenamiento de modelos de lenguaje grandes (LLM) como Gemini. Si bien las GPU de uso general pueden manejar la mayoría de los cálculos, los chips dedicados diseñados para la estructura del modelo de una empresa específica pueden procesar la misma cantidad de cálculos con menos energía.
Sin embargo, muchos en la industria creen que el dominio de Nvidia en el mercado de chips de IA no se verá sacudido de inmediato. El entorno actual de investigación y desarrollo de IA a nivel mundial está construido en torno a las GPU de Nvidia y el ecosistema de software CUDA de Nvidia. Dada la escala de la infraestructura ya invertida y los costos de transición, es poco probable que haya un cambio rápido a otros chips de IA. Nvidia ha expresado recientemente su confianza, afirmando que, si bien “Google ha logrado un gran progreso en el campo de la IA”, “(nuestros productos) están una generación por delante de la industria”.

이민아 기자 omg@donga.com
박종민 기자 blick@donga.com
© dongA.com All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
