En la búsqueda para acelerar el desarrollo de la IA y hacerla más accesible para las organizaciones, Red Hat anuncia la adquisición completa de Neural Magic, una empresa especializada en software y algoritmos de inteligencia artificial, para mejorar sus soluciones de software empresarial.
Red Hat ha anunciado la firma de un acuerdo definitivo para adquirir Neural Magic
Aunque la IA generativa es una de las tecnologías más prometedoras en la actualidad, el tamaño creciente de los modelos de lenguaje (LLM) que los impulsan ha generado la necesidad de una gran capacidad computacional, recursos energéticos y habilidades operativas especializadas. Estos desafíos dificultan que muchas empresas accedan a los beneficios de una IA personalizada, más segura y lista para implementarse.
Debido a esto, Red Hat ha anunciado, en un comunicado de prensa, la firma de un acuerdo definitivo para adquirir Neural Magic, una empresa enfocada en el desarrollo de software y algoritmos que optimizan las cargas de trabajo de la inteligencia artificial generativa (GenAI).
“Las cargas de trabajo de la IA deben poder ejecutarse dondequiera que residan los datos de los clientes en la nube híbrida. Esto hace que las plataformas y herramientas abiertas, flexibles y estandarizadas sean una necesidad, ya que permiten que las organizaciones seleccionen los entornos, los recursos y las arquitecturas que mejor se adecuen a sus necesidades operativas y de datos particulares”, mantuvo Matt Hicks, Presidente y CEO de Red Hat. Asimismo, expresó su entusiasmo por enriquecer su portafolio de IA enfocado en la nube híbrida con las innovaciones en inteligencia artificial de Neural Magic.
Por su parte, Brian Stevens, CEO de Neural Magic, comentó: “El código abierto ha demostrado repetidas veces que impulsa la innovación a través del poder de la colaboración de la comunidad. En Neural Magic, hemos armado un equipo con algunos de los mejores talentos del sector en ingeniería de rendimiento de IA con la única misión de crear capacidades de servicio de LLM abiertas, ultraeficientes y multiplataforma. Sumarnos a Red Hat no es solo una coincidencia a nivel cultural, sino que además beneficiará a empresas grandes y pequeñas en sus procesos de transformación de la IA”.
Red Hat busca hacer que la IA generativa sea más accesible mediante la innovación abierta de vLLM, un proyecto de código abierto de UC Berkeley que mejora la inferencia y resolución de problemas en modelos de IA generativa. vLLM es compatible con diversos modelos, aceleración de inferencia y varios back-ends de hardware, como GPU de AMD, AWS Neuron, TPU de Google, entre otros. La experiencia de Neural Magic en vLLM, junto con las tecnologías de IA en la nube híbrida de Red Hat, ofrecerá a las organizaciones una opción abierta para desarrollar estrategias de IA personalizadas, sin importar la ubicación de sus datos.
Neural Magic surgió del MIT con el objetivo de crear software de inferencia de alto rendimiento para el aprendizaje profundo
Neural Magic fue fundada en 2018 en el MIT con la misión de desarrollar software de inferencia de alto rendimiento para el aprendizaje profundo (deep learning). Gracias a la tecnología y la experiencia en ingeniería de rendimiento de Neural Magic, Red Hat busca acelerar su visión del futuro de la inteligencia artificial, respaldada por su portafolio de tecnologías Red Hat AI.
La compañía utiliza la innovación open source para superar los desafíos de la inteligencia artificial empresarial, ofreciendo modelos con licencia open source que van de 1 B a 405 B parámetros y pueden ejecutarse en cualquier nube híbrida. Además, proporciona funciones de ajuste fino para adaptar los LLM a datos privados y necesidades específicas, mejorando la seguridad, y su experiencia en ingeniería de rendimiento optimiza la eficiencia operativa e infraestructura.
Neural Magic utiliza su experiencia y conocimientos en vLLM para desarrollar una plataforma de inferencia empresarial que permite a los clientes optimizar, implementar y escalar cargas de trabajo de LLM en entornos de nube híbrida, otorgándoles control total sobre la elección de infraestructura, políticas de seguridad y el ciclo de vida del modelo. Además, la compañía se enfoca en la investigación de la optimización de modelos, crea LLM Compressor (una biblioteca unificada que optimiza LLM mediante algoritmos avanzados de cuantificación y dispersión) y mantiene un repositorio de modelos pre optimizados listos para ser implementados con vLLM.
Red Hat AI busca ayudar a los clientes a reducir costos y el déficit de habilidades en IA mediante tecnologías como Red Hat Enterprise Linux AI (RHEL AI), que facilita el uso de los modelos LLM Granite de IBM en servidores Linux; Red Hat OpenShift AI, que proporciona herramientas para desarrollar y monitorear modelos de aprendizaje automático en entornos distribuidos; e InstructLab, un proyecto de código abierto creado por Red Hat e IBM para mejorar colaborativamente los modelos LLM Granite con tecnología de ajuste fino.