CHIPS PARA IA MAS ALLA DE NVIDIA

JUE, 24 / JUL / 2025

La aceleración de la inteligencia artificial ha disparado la demanda de chips especializados, impulsando una transformación estructural en el mercado del hardware. Este informe explora el panorama actual, desde el dominio de Nvidia hasta el surgimiento de nuevas arquitecturas y competidores globales.

Autor: Pier Cicariello

Nvidia y el liderazgo desafiante

Nvidia ha cimentado su liderazgo en inteligencia artificial mediante una evolución estratégica de sus GPU y el ecosistema CUDA, transformando el hardware gráfico en plataformas de propósito general para cómputo paralelo.

Desde la irrupción de CUDA en 2006 hasta la arquitectura Blackwell Ultra, la compañía ha optimizado cada generación para cargas específicas de IA, como entrenamiento e inferencia de modelos masivos.

Su nuevo chip GB10, que integra núcleos ARM de alta eficiencia con GPU Blackwell, responde a las exigencias de edge computing y despliegues en tiempo real.

El ecosistema de Nvidia no solo se sostiene por su hardware, sino por su integración con los principales proveedores de nube y por sus tecnologías de interconexión como Spectrum-X y Quantum-X800. Sin embargo, el dominio de Nvidia, que abarca hasta el 95 % del mercado según Mizuho Securities, enfrenta presión por parte de nuevos actores tecnológicos, cambios regulatorios y volatilidad bursátil, como se evidenció tras el impacto del lanzamiento de DeepSeek y las restricciones estadounidenses que derivaron en la creación del chip H20, una versión limitada del H100 para el mercado chino.

CUDA es una plataforma de computación paralela y un modelo de programación que permite a los desarrolladores utilizar las GPU de Nvidia para tareas de propósito general, NVIDIA CUDA-X, construido sobre CUDA, es una colección de microservicios, bibliotecas, herramientas y tecnologías para crear aplicaciones.

Nuevos jugadores, soberanía tecnológica y diseños alternativos

A nivel global, empresas y gobiernos compiten por avanzar en la autonomía tecnológica mediante diseños propios.

China lidera esta estrategia con chips como el Ascend 910B de Huawei, además del impulso estatal a centros de datos y startups locales.

En paralelo, Meta desarrolla MTIA para optimizar sus operaciones internas, Tesla perfecciona el chip D1 en su superordenador Dojo, y Apple apuesta por la integración de IA en sus SoC. Por su parte, Google, con sus TPUs, ha consolidado una arquitectura ASIC altamente eficiente para cargas en TensorFlow, combinando velocidad, eficiencia energética y escalabilidad a través de TPU Pods en Google Cloud.

En tanto, Intel refuerza su presencia con CPUs Xeon mejoradas con AMX y con sus aceleradores Habana Labs, donde el Gaudi 3 compite directamente con el Nvidia H100 en entrenamiento e inferencia, y el Greco se enfoca en procesos de bajo consumo. AMD despliega su familia de GPUs Instinct (MI250X y MI300X) con arquitectura CDNA, chiplets 3D y hasta 192 GB de memoria HBM3, además de integrar NPUs en sus procesadores EPYC y APUs Ryzen para inferencia en dispositivos personales.

Estas iniciativas exhiben una tendencia creciente hacia arquitecturas diversificadas, eficiencia energética y control sobre cada capa tecnológica, donde la combinación de software y hardware propio resulta clave para la competitividad.

Los servidores equipados con procesadores AMD EPYC Serie 9005 están diseñados especialmente para acelerar las cargas de trabajo del centro de datos, la nube y la IA.

Startups disruptivas y el rediseño del paradigma de cómputo

Además de los grandes actores, startups emergentes están reformulando las bases del hardware para IA con propuestas radicales.

Graphcore desarrolló las IPU, chips centrados exclusivamente en aprendizaje automático, optimizando el paralelismo y reduciendo la latencia con memorias internas. Cerebras rompió el esquema tradicional al crear el Wafer-Scale Engine (WSE), un procesador fabricado a escala de oblea con 4 billones de transistores, ideal para entrenar modelos gigantescos sin fragmentación.

Groq presentó las LPU, orientadas a inferencia conversacional en tiempo real con latencia predecible, mientras Tenstorrent combina RISC-V con núcleos de IA para ofrecer flexibilidad y eficiencia en diversos entornos. Lightmatter, en un enfoque completamente distinto, apuesta por la computación fotónica, utilizando luz en lugar de electricidad para multiplicar la velocidad de operación y reducir el consumo energético. Su chip Envise y la interconexión óptica Passage marcan un camino alternativo frente a los límites físicos actuales.

Por otro lado, los gigantes de la nube también toman posición: AWS desarrolló Inferentia y Trainium para entrenamiento e inferencia, integrados en su infraestructura con rendimiento competitivo y escalabilidad nativa; mientras que Microsoft lanzó Maia y Cobalt, sus propios chips IA y CPU basados en ARM, en colaboración con OpenAI y TSMC, para reforzar su independencia tecnológica dentro de Azure.

Este entorno híbrido entre grandes empresas, startups y gobiernos crea un ecosistema de chips en rápida evolución, donde la especialización, la eficiencia y el control directo son los factores centrales para sostener el crecimiento exponencial de la inteligencia artificial.

Maia 100 fue diseñado para ejecutar cargas de trabajo de IA basadas en la nube usando la experiencia de Microsoft en la ejecución de cargas de trabajo de IA complejas como Microsoft Copilot.

Encuentra la versión completa de la publicación en la que se basa este resumen, con todos los detalles técnicos en RedUSERS PREMIUM

También te puede interesar:

EXPLOTA TU IA AL MAXIMO

Este informe de USERS explica cómo aprovechar al máximo la inteligencia artificial generativa, presentando herramientas como ChatGPT, Gemini y Claude, y explicando técnicas de prompt, iteración, automatización y protección de datos para incorporar la IA como aliado productivo y creativo.


Lee todo lo que quieras, donde vayas, contenidos exclusivos por una mínima cuota mensual. Solo en RedUSERS PREMIUM: SUSCRIBETE!


Comentarios
¡Comparte esta noticia!

Leave a Reply