Con la idea de ir potenciando el trabajo de desarrolladores, empresas e ir empoderando a los usuarios de los centros de datos, AMD estrenó su nueva línea de aceleradores, AMD Instinct MI300 Series, destacando el AMD Instinct MI300X, su acelerador más avanzado del mundo para IA generativa.
Y es que la Inteligencia Artificial Generativa es tema tendencia en este 2023, por eso mismo que las empresas de tecnología han querido ir presentando diversas soluciones que faciliten el trabajo.
En el siguiente artículo te comento ¿Qué es AMD Instinct y cuál es su importancia?.
AMD Instinct: Llevando el rendimiento de la IA al siguiente nivel
La línea Instinct llega para potenciar el aprendizaje profundo, las redes neuronales, la Inteligencia Artificial además de las diversas aplicaciones de computación de alto rendimiento.
En esta línea, los aceleradores están pensados para abordar una tarea específica, son dispositivos que están diseñados por una sola empresa cuya arquitectura está optimizada para la facilitación de tareas o llevarla al siguiente nivel.
Como parte de los nuevos anuncios en San Francisco, la nueva línea AMD Instinct llega como la nueva línea de tarjetas gráficas para servidores de alto rendimiento o HPC, llegando a obtener un rendimiento superior a generaciones anteriores, además de una mayor eficiencia energética.
“La IA es la tecnología definitoria que da forma a la próxima generación de computación y la mayor oportunidad de crecimiento estratégico para AMD. Estamos enfocados en acelerar la implementación de las plataformas AMD AI a escala en el centro de datos, liderados por el lanzamiento de nuestros aceleradores Instinct MI300 planeados para finales de este año y el creciente ecosistema de software AI listo para la empresa optimizado para nuestro hardware”, indicó la Dra. Lisa Su.
Ahora bien, AMD Instinct MI300X se basa en la arquitectura del acelerador AMD CDNA 3 de próxima generación y admite hasta 192 GB de memoria HBM3 para proporcionar la eficiencia de cómputo y memoria necesaria para el entrenamiento y la inferencia de modelos de lenguaje grandes para cargas de trabajo de IA generativa, llevando este tipo de tecnología al siguiente nivel.