Red Hat ha anunciado un acuerdo definitivo para la adquisición de Neural Magic, empresa pionera en software y algoritmos que aceleran las cargas de trabajo de inferencia de IA generativa.
La experiencia de Neural Magic en ingeniería de rendimiento de inferencia y su compromiso con el código abierto se alinean con la visión de Red Hat de cargas de trabajo de IA de alto rendimiento que se adaptan directamente a los casos de uso y datos específicos del cliente, en cualquier lugar de la nube híbrida.
Si bien la promesa de la IA generativa domina gran parte del panorama tecnológico actual, los grandes modelos lingüísticos (LLM) que sustentan estos sistemas continúan aumentando de tamaño. Como resultado, construir servicios LLM rentables y confiables requiere una potencia de cálculo, recursos energéticos y habilidades operativas especializadas significativas. Estos desafíos, en la práctica, ponen los beneficios de una IA personalizada, lista para implementar y más consciente de la seguridad fuera del alcance de la mayoría de las organizaciones.
Red Hat pretende abordar estos desafíos haciendo que la IA generativa sea más accesible para más organizaciones a través de la innovación abierta de vLLM.
Desarrollado por la Universidad de California, Berkeley, vLLM es un proyecto de código abierto impulsado por la comunidad para open model serving (cómo los modelos de IA generativa infieren y resuelven problemas), con soporte para todas las familias de modelos clave, investigación avanzada en aceleración de inferencia y diversos backends de hardware, incluyendo GPUs AMD, AWS Neuron, TPUs de Google, Intel Gaudi, GPUs NVIDIA y CPUs x86.
El liderazgo de Neural Magic en el proyecto vLLM, combinado con la sólida cartera de tecnologías de IA para nube híbrida de Red Hat, ofrecerá a las organizaciones una vía abierta para construir estrategias de IA que satisfagan sus necesidades únicas, dondequiera que estén sus datos.
Neural Magic surgió del MIT en 2018 con el objetivo de construir software de inferencia de alto rendimiento para deep learning. Con la tecnología y la experiencia en ingeniería de rendimiento de Neural Magic, Red Hat busca acelerar su visión para el futuro de la IA, impulsada por el portfolio de tecnología de IA de Red Hat.
El liderazgo en vLLM mejora Red Hat AI
Neural Magic utiliza su experiencia y conocimiento en vLLM para construir un stack de inferencia empresarial que permite a los clientes optimizar, desplegar y escalar cargas de trabajo LLM en entornos de nube híbrida con control total sobre la elección de la infraestructura, las políticas de seguridad y el ciclo de vida del modelo.
Neural Magic también desarrolla investigación de optimización de modelos, construye LLM Compressor (una biblioteca unificada para optimizar LLM con algoritmos de vanguardia de dispersión y cuantización) y mantiene un repositorio de modelos preoptimizados listos para implementar con vLLM.
Red Hat AI tiene como objetivo ayudar a los clientes a reducir los costos y las barreras de conocimiento de la IA con potentes tecnologías, que incluyen:
● Red Hat Enterprise Linux AI (RHEL AI): una plataforma de modelos fundacionales para desarrollar, probar y ejecutar de forma más fluida la familia IBM Granite de LLM de código abierto para aplicaciones empresariales en despliegues de servidores Linux.
● Red Hat OpenShift AI: una plataforma de IA que proporciona herramientas para desarrollar, entrenar, servir y supervisar rápidamente modelos de aprendizaje automático en entornos Kubernetes distribuidos, ya sea en las instalaciones, en la nube pública o en el edge.
● InstructLab: un proyecto comunitario de IA de código abierto accesible, creado por Red Hat e IBM, que permite a cualquiera dar forma al futuro de la IA generativa mediante la mejora colaborativa de los LLM Granite con licencia de código abierto utilizando la tecnología de ajuste de InstructLab.
Finalmente, el liderazgo tecnológico de Neural Magic en vLLM mejorará la capacidad de Red Hat AI para admitir despliegues de LLM en cualquier lugar de la nube híbrida con un stack de inferencia listo para usar, altamente optimizado y abierto.