Microsoft en su afán de explorar nuevos modelos de IA de gran escala que puedan aprender de una manera generalizada a través de texto, imágenes y video, pone a disposición una nueva infraestructura en Azure que entrene modelos de inteligencia artificial de gran tamaño.
Microsoft ha construido una de las cinco principales supercomputadoras divulgadas al público en el mundo, para poner disponible nueva infraestructura en Azure para entrenar modelos de inteligencia artificial de gran tamaño, como lo anunció la compañía en su conferencia Build para desarrolladores.
Diseñada en específico para entrenar a los modelos de IA de la compañía, representa un hito clave de la asociación anunciada en 2019 para crear en conjunto nuevas tecnologías de super cómputo en Azure.
Entrenar modelos masivos de IA requiere de una infraestructura avanzada de súper cómputo, o clústeres de hardware de vanguardia conectados por redes de banda ancha alta. También se necesitan herramientas para entrenar modelos a través de estas computadoras interconectadas.
La supercomputadora desarrollada por OpenAI, es un sistema sencillo con más de 285 mil núcleos de CPU, 10 mil GPUs y 400 gigabits por segundo de conectividad de red para cada servidor GPU. Comparada con otras máquinas listadas en las TOP500 super computadoras en el mundo, se encuentra entre las cinco primeras, comentó Microsoft.
Hospedada en Azure, la super computadora también se beneficia de todas las capacidades de una robusta infraestructura de nube moderna, incluido un despliegue rápido, centros de datos sustentables y acceso a servicios de Azure.
Este, es un primer paso para hacer que la próxima generación de modelos de IA muy grandes y la infraestructura necesaria para entrenarlos, estén disponibles como plataforma para que otras organizaciones y desarrolladores puedan construir.
“Lo emocionante de estos modelos es la gran cantidad de cosas que van a habilitar”, comentó Kevin Scott, Director Técnico en Microsoft, quien dijo que los beneficios potenciales se extienden más allá de estrechos avances en un tipo de modelo de IA.
“Esto se trata de poder hacer cien cosas emocionantes a la vez en procesamiento de lenguaje natural y cientos de cosas emocionantes en visión de cómputo, y cuando comienzas a ver las combinaciones de estos dominios perceptuales, vas a tener nuevas aplicaciones que son difíciles de imaginar en este instante”, mencionó.
Los modelos de gran escala de IA han comenzado a aprender en nuevas maneras entre texto, imágenes y video. Arte por Craighton Berman.
Para los investigadores el modelo más grande de lenguaje de IA disponible a nivel público en el mundo, es el modelo Microsoft Turing para generación de lenguaje natural.
La meta, comenta Microsoft, es poner disponibles sus grandes modelos de IA, herramientas de optimización de entrenamiento y recursos de super cómputo a través de los servicios Azure AI y de GitHub, para que los desarrolladores, científicos de datos y clientes de negocios puedan aprovechar el poder de AI at Scale.
“Por el momento, la mayoría de la gente entiende de manera intuitiva cómo las computadoras personales son una plataforma – compras una y no es que todo lo que la computadora vaya a hacer esté ya integrado en el dispositivo cuando lo sacas de la caja”, comentó Scott.
“Eso es justo lo que queremos decir cuando decimos que la IA se ha comenzado a convertir en una plataforma”, comentó. “Se trata de tomar un muy amplio conjunto de datos y entrenar un modelo que aprende a hacer un conjunto general de cosas y poner disponible ese modelo para que millones de desarrolladores descubran cómo hacer cosas interesantes y creativas con él”.
Comments