UALink: AMD, Google, Microsoft, Meta y otras compañías se unen para trabajar en la próxima generación de chips de inteligencia artificial
AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta y Microsoft decidieron unirse para crear un estándar abierto de la industria que permita la elaboración de una tecnología de chip de inteligencia artificial (IA) llamado Ultra Accelerator Link. Con esta noticia, las compañías buscan establecer una medida antimonopolio en la nueva generación de chips.
El objetivo de establecer una tecnología estándar promoverá el rendimiento de los nuevos chips de inteligencia artificial en toda la industria, lo que significa que ninguna empresa capitalizará de manera desproporcionada las nuevas ofertas de productos basados en IA.
Por ahora, los ausentes del llamado UALink Promoter Group, son NVIDIA y Amazon Web Services. De hecho, el grupo que firmó el acuerdo probablemente tiene la intención de que su nuevo estándar de interconexión derroque el dominio de las dos empresas en el hardware de IA y el mercado de la nube, respectivamente.
¿Qué es UALink y a quién beneficiará?
El Ultra Accelerator Link, o UALink, es una forma definida de conectar la próxima generación de chips de IA, permitiendo una comunicación más rápida y eficiente.
Los chips de IA, como las GPU, los TPU y otros procesadores de IA especializados, son el núcleo de todas las tecnologías de inteligencia artificial. Cada uno puede realizar un gran número de operaciones complejas simultáneamente; sin embargo, para lograr altas cargas de trabajo necesarias para trabajar, ejecutar y optimizar los modelos de IA, deben estar conectados. Cuanto más rápida sea la transferencia de datos entre los chips, más rápido pueden acceder y procesar los datos necesarios y de manera más eficiente pueden gestionar tareas.
Según información del UALink Promoter Group, esto «permitirá cargas y almacenes directos entre la memoria conectada a los aceleradores de IA, y generalmente aumentará la velocidad al tiempo que reducirá la latencia de transferencia de datos en comparación con las especificaciones de interconexión existentes».
Para Pradyumna (Prady) Gupta, Ph.D., fundador de Infinita Lab, lo anterior significa que ahora las nuevas tecnologías permitirán un mayor procesamiento de datos de IA, lo que se traduce en una verdadera revolución: «Se acercan nuevas tecnologías [de memoria], y cuando lleguen, creo que será una verdadera revolución».
Si bien los detalles sobre el UALink aún no se han publicado, durante el anuncio de esta alianza se dijo que trabajarán bajo la arquitectura Infinity Fabric de AMD. Su publicación beneficiará a los fabricantes de equipos originales de sistemas, profesionales de TI e integradores de sistemas que buscan configurar sus centros de datos de una manera que admita altas velocidades, baja latencia y escalabilidad.
Millonaria inversión en sistemas de IA
Microsoft, Meta y Google han gastado miles de millones de dólares en GPU NVIDIA en sus respectivas divisiones de IA y Cloud, incluidos los modelos Llama de Meta, Google Cloud y Microsoft Azure. Sin embargo, hacerle frente al dominio del hardware de NVIDIA no es un buen augurio para sus respectivos proyectos, por lo que se buscan realizar este tipo de alianzas como una estrategia para combatir el monopolio en la industria.
El sistema UALink permitirá a proveedores que no sean NVIDIA ofrecer aceleradores compatibles, lo que brinda a las empresas de IA una gama de opciones de hardware alternativas sobre las que construir su sistema y no sufrir el bloqueo de proveedores.
Esto beneficia a muchas de las empresas del grupo que han desarrollado o están desarrollando sus propios aceleradores. Google tiene un TPU personalizado y el procesador Axion; Intel tiene Gaudi; Microsoft tiene las GPU Maia y Cobalt; y Meta tiene MTIA. Todos estos podrían conectarse utilizando el UALink, que es probable que sea proporcionado por Broadcom.
«Hace diez años, ningún ingeniero en la industria de los semiconductores, ni siquiera las personas que fabrican los chips, habrían pensado que estaríamos tan cerca del nivel atómico, como la tecnología de tres nanómetros que tenemos ahora», dijo Gupta haciendo referencia a la importancia de este progreso.
NVIDIA y Amazon se quedan por fuera
Es probable que NVIDIA no se haya unido al grupo por dos razones principales: su dominio del mercado en hardware relacionado con la IA y su capacidad exorbitante de energía derivada de su alto coste para otras marcas.
La empresa tiene actualmente un estimado del 80% de la cuota de mercado de GPU, pero también es un gran jugador en la tecnología de interconexión con NVLink, Infiniband y Ethernet. NVLink específicamente es una tecnología de interconexión de GPU a GPU, que puede conectar aceleradores dentro de uno o varios servidores, al igual que UALink. Por lo tanto, no es sorprendente que NVIDIA no desee compartir esa innovación con sus rivales más cercanos.
Además, según sus últimos resultados financieros, NVIDIA está cerca de superar a Apple y convertirse en la segunda empresa más valiosa del mundo, con su valor que se duplica a más de 2 billones de dólares en solo nueve meses.
La compañía no parece ganar mucho con la estandarización de la tecnología de IA, y su posición actual también es favorable. El tiempo dirá si la oferta de NVIDIA será tan integral para las operaciones del centro de datos que los primeros productos de UALink no derrocan su corona.
En cuanto a Amazon, este es el único de los principales proveedores de nube pública que no se une al UALink Promoter Group. Al igual que NVIDIA, esto también podría estar relacionado con su influencia como el actual líder del mercado de la nube y el hecho de que está trabajando en sus propias familias de chips aceleradores, como Trainium e Inferentia. Además, con una sólida asociación de más de 12 años, AWS también podría prestarse a esconderse detrás de NVIDIA en este ámbito.
La importancia de los estándares abiertos de IA
Los estándares abiertos ayudan a evitar el dominio desproporcionado de la industria. El UALink Promoter Group permitirá a varias empresas colaborar en el hardware esencial para los centros de datos de IA para que ninguna organización pueda hacerse cargo de todo.
Este no es el primer caso de este tipo de revuelta en la IA; en diciembre del 2023, más de 50 organizaciones se asociaron para formar la Alianza global de IA para promover la IA responsable y de código abierto, ayudando a evitar que los desarrolladores de modelos cerrados ganen demasiado poder.
El intercambio de conocimientos también funciona para acelerar los avances en el rendimiento de la IA a escala de toda la industria. La demanda de computación de IA está en continuo crecimiento, y para que las empresas de tecnología se mantengan al día, requieren lo mejor en capacidades de ampliación.
Forrest Norrod, vicepresidente ejecutivo y gerente general del Grupo de Soluciones de Centros de Datos de AMD, dijo en un comunicado de prensa: «El trabajo que realizan las empresas de UALink para crear una estructura aceleradora abierta, de alto rendimiento y escalable es fundamental para el futuro de la IA.
«Juntos, aportamos una amplia experiencia en la creación de soluciones de IA y computación de alto rendimiento a gran escala que se basan en estándares abiertos, eficiencia y soporte de ecosistema sólido. AMD se compromete a contribuir con nuestra experiencia, tecnologías y capacidades al grupo, así como con otros esfuerzos abiertos de la industria para avanzar en todos los aspectos de la tecnología de IA y solidificar un ecosistema de IA abierto».