Publicado 13/06/2025 02:36

AMD presenta los aceleradores de la serie Instinct MI350, que aumentan en un 35% el rendimiento de inferencia

Recurso de tecnología de IA
Recurso de tecnología de IA - AMD

   MADRID, 13 Jun. (Portaltic/EP) -

   AMD ha presentado los nuevos aceleradores de la serie AMD Instinct MI350 y ha compartido un anticipo de otras tecnologías con las que busca convertirse en un referente en rendimiento, eficiencia y escalabilidad en IA generativa.

   La serie Instinct MI350 ofrece ofrece una mejora en el procesamiento de IA de hasta cuatro veces generación tras generación y un aumento de hasta 35 veces en el rendimiento de inferencia.

   Está compuesta por las GPU y plataformas Instinct MI350X y MI355X, y esta última, además, ofrece mejoras en la relación precio-rendimiento, generando hasta un 40 por ciento más de tokens por dólar en comparación con las soluciones de la competencia, según ha destacado AMD en una nota de prensa.

   Con ellas, la firma tecnológica busca establecer un nuevo referente en rendimiento, eficiencia y escalabilidad en IA generativa y computación de alto rendimiento, ha expresado en el marco de su evento Advancing AI 2025.

   La serie MI350 ofrece una capacidad de memoria de 288 GB HBM3E de Micron y Samsung Electronics) y un ancho de banda de hasta 8 TB/s, así como configuraciones flexibles de refrigeración por aire y refrigeración líquida directa. Admite hasta 64 GPU en un rack refrigerado por aire y hasta 128 GPU en un rack refrigerado por líquido directo, ofreciendo hasta 2,6 exaFLOPS de rendimiento FP4/FP6.

   Por otra parte, el motor de 'software' abierto para la aceleración de la IA ROCm impulsa algunas de las plataformas de IA más grandes del mundo, compatible con modelos importantes como Llama y DeepSeek desde el primer día y ofreciendo mejoras de inferencia de más de 3,5 veces en la próxima versión de ROCm 7.

    Con actualizaciones frecuentes, tipos de datos avanzados como FP4 y nuevos algoritmos como FAv3, ROCm permite un rendimiento de IA de última generación, a la vez que impulsa 'frameworks' de código abierto como vLLM y SGLang.

   AMD también ha mostrado en Advancing AI 2025 un adelanto de la serie Instinct MI400 y el rack de IA 'Helios'. Juntos, ofrecerán hasta diez veces más rendimiento al ejecutar inferencia en los modelos Mixture of Experts, las CPU EPYC 'Venice' basadas en la arquitectura Zen 6 y las tarjetas de red AMD Pensando 'Vulcano'.

COLABORACIÓN CON SOCIOS DE LA INDUSTRIA

   Empresas como Meta, OpenAI y Microsoft ya han incorporado la tecnología de AMD en el desarrollo de sus proyectos de inteligencia artificial.

    En este sentido, Meta ya ha desplegado la serie Instinct MI300X para la inferencia de sus modelos Llama 3 y Llama 4, a la espera de poder trabajar con los aceleradores de la serie Instinct MI350, de los que ha destacado su capacidad de computación, rendimiento por TCO y memoria de última generación.

   OpenAI destacó las investigaciones y los modelos GPT en Azure en producción en MI300X, así como profundos compromisos de diseño en las plataformas de la serie MI400, mientras que Microsoft anunció que Instinct MI300X ahora impulsa modelos propietarios y de código abierto en producción en Azure.

Contador