A medida que la inteligencia artificial avanza a pasos agigantados en diversas industrias, desde automóviles autónomos hasta aplicaciones en medicina e interacción de lenguaje en tiempo real, la demanda por una infraestructura computacional sólida nunca ha sido tan alta. Sin embargo, este impulso no se basa únicamente en el software; también se encuentra en la competencia por el hardware, principalmente en el ámbito de las Unidades de Procesamiento Gráfico (GPUs) y las Unidades de Procesamiento Tensor (TPUs).
Para los inversores, las decisiones en este sector son cada vez más críticas. Los fabricantes de chips que están detrás de la creciente demanda de IA están experimentando un crecimiento exponencial, y al mirar hacia 2025, la conversación ha cambiado de «¿Debería invertir en hardware de IA?» a «¿Qué chips y qué empresas liderarán esta nueva ola de innovación?»
En el marco de esa discusión, es fundamental entender las características y aplicaciones de las GPUs y TPUs. Las GPUs, que inicialmente fueron diseñadas para manejar gráficos complejos en videojuegos, han evolucionado y se han convertido en la opción preferida para el entrenamiento de modelos de IA. Esto se debe a su capacidad para procesar miles de operaciones simultáneamente, lo que las hace ideales para el aprendizaje profundo. Sus fortalezas incluyen una alta flexibilidad, una adopción masiva en entrenamiento e inferencia y un ecosistema de desarrolladores robusto, con NVIDIA a la cabeza como el jugador dominante.
Por otro lado, las TPUs, desarrolladas por Google como circuitos integrados específicos para aplicaciones de aprendizaje automático, están optimizadas en particular para cargas de trabajo de TensorFlow. Destacan por su eficiencia energética y su capacidad para realizar cálculos matriciales más rápidos en ciertos modelos de aprendizaje automático. Alphabet, la empresa matriz de Google, ha visto un crecimiento en sus ingresos en IA en la nube, impulsado por la adopción de servicios que utilizan TPUs.
A medida que avanzamos hacia 2025, se anticipa que la demanda de chips de IA seguirá aumentando. Proyecciones indican que el mercado global de chips de IA alcanzará los 263 mil millones de dólares para 2031, con un crecimiento anual compuesto del 38.2%. Mientras que las GPUs continúan dominando, las TPUs y otros chips de aceleración de IA están comenzando a ganar relevancia gracias a su eficiencia de costos y energía.
A largo plazo, se espera que las GPUs mantengan su dominio en el entrenamiento e inferencia de alto nivel, gracias a la plataforma CUDA de NVIDIA, que se ha convertido en el estándar de facto en el desarrollo de IA. Sin embargo, en el horizonte también se vislumbra un aumento en la cuota de mercado de las TPUs y ASICs personalizados, diseñados por grandes tecnológicas como Amazon y Microsoft, que buscan reducir su dependencia de los chips de NVIDIA.
Los inversores que busquen exposición directa al crecimiento del hardware de IA encontrarán en NVIDIA la opción más clara, aunque Alphabet representa una vía alternativa a través de sus servicios en la nube. A medida que el panorama de la IA sigue evolucionando, los jugadores clave y las innovaciones en chips definirán los próximos grandes movimientos en este sector en expansión. La conclusión es que la carrera por la inteligencia artificial no verá a un solo ganador; en cambio, los exitosos serán aquellos que comprendan en qué áreas cada tipo de chip brilla.
