NVIDIA reina en la industria del hardware para inteligencia artificial (IA) con una rotundidad aplastante. AMD, Intel, Google o Amazon son algunas de las grandes compañías que compiten con ella para hacerse con un buen pedazo del jugosísimo pastel que es el mercado de los chips para inteligencia artificial. Sin embargo, todas ellas están a años luz en términos de cuota de mercado de la empresa que lidera Jensen Huang, que actualmente acapara cerca del 80% de esta industria.
Este apabullante dominio procede de la anticipación con la que NVIDIA supo prever que el mercado de los chips para IA no tardaría en explotar. En cualquier caso, las previsiones de los expertos pronostican algo que los usuarios podemos intuir fácilmente si observamos en qué dirección se están moviendo muchas grandes corporaciones. Las que he mencionado en el párrafo anterior son algunas de ellas, pero hay muchas más que están cimentando su estructura de negocio sobre la IA. OpenAI, la creadora de ChatGPT, es una de ellas.
La consultora TrendForce ha publicado un informe muy interesante en el que asegura que OpenAI necesitará sostener el motor de inteligencia artificial de ChatGPT en el futuro con más de 30.000 chips de IA. Este cálculo lo ha realizado teniendo en cuenta que esta organización utilizó aproximadamente 20.000 de estos chips a partir de 2020 durante el proceso de entrenamiento de su software. Es razonable asumir que adquirirá los chips de vanguardia de NVIDIA, pero cabe la posibilidad de que algunos de los clientes de la compañía de Jensen Huang se pasen a uno de sus principales competidores.
AMD se está abriendo paso a codazos
NVIDIA ha presentado hace unos pocos días su chip para IA más potente, la GPU H200. Esta bestia está implementada sobre la arquitectura Hopper y tiene nada menos que 141 GB de VRAM de tipo HBM3E. Según sus creadores este procesador entrega el doble de rendimiento que su predecesor, el chip H100, cuando se enfrenta a las tareas de inferencia que requieren los modelos complejos de lenguaje, por lo que es posible que durante los próximos meses muchos clientes de NVIDIA se hagan con él.
La GPU MI300X de AMD es superior al chip H100 de NVIDIA en términos de rendimiento por vatio y rendimiento por dólar
No obstante, hay varias alternativas a los chips para IA de NVIDIA, y una de ellas brilla con mucha intensidad: la GPU MI300X de AMD. Eric Wu, un ingeniero de software de Tesla experto en inteligencia artificial, se ha percatado de que esta propuesta de AMD es superior al chip H100 de NVIDIA en términos de rendimiento por vatio y rendimiento por dólar. Además, a pesar de tener casi el doble de transistores que la GPU H100, el chip MI300X es solo un 25% más grande gracias a la litografía empleada por TSMC en su fabricación.
Pese a todo esto NVIDIA tiene dos grandes bazas en sus manos. Una de ellas, la más contundente, es CUDA, una plataforma que aglutina un modelo de programación y un conjunto de herramientas de desarrollo que están siendo utilizados por muchas empresas de IA. Apartarlo a un lado para apostar por el hardware de AMD o cualquier otra empresa no será fácil de asumir para las compañías que trabajan con el hardware de NVIDIA. Y, además, esta última cuenta con el empujón que presumiblemente le dará la nueva GPU H200. Aun así, es evidente que Jensen Huang y sus acólitos no se van a poder relajar lo más mínimo si quieren defender la cómoda posición en la que se encuentran ahora mismo.
Imagen de portada: NVIDIA
Más información: DigiTimes Asia
–
La noticia En el futuro del hardware para IA reinará NVIDIA, aunque hay una empresa preparada para darle un buen susto fue publicada originalmente en Xataka por Juan Carlos López .