Oracle anunció la disponibilidad general de HeatWave GenAI, que incluye los primeros grandes modelos de lenguaje (LLM) del sector, un almacén de vectores automatizado en la base de datos, procesamiento de vectores escalable horizontalmente y la capacidad de mantener conversaciones contextuales en lenguaje natural basadas en contenido no estructurado.
Estas nuevas funcionalidades permiten a los clientes llevar el poder de la IA generativa a sus datos empresariales sin necesidad de contar con experiencia en IA ni de migrar datos a una base de datos vectorial. HeatWave GenAI está disponible inmediatamente en todas las regiones de Oracle Cloud, Oracle Cloud Infrastructure (OCI) Dedicated Region y en todas las nubes sin costo adicional para los clientes de HeatWave.
Con HeatWave GenAI, los desarrolladores pueden crear un almacén de vectores para contenido empresarial no estructurado con un solo comando SQL, mediante modelos de incrustación incorporados. Los usuarios pueden realizar búsquedas en lenguaje natural en un solo paso gracias a los LLM externos o la base de datos. Los datos no salen de la base de datos y, debido a la escala y el rendimiento extremos de HeatWave, no es necesario aprovisionar GPU. Como resultado, los desarrolladores pueden reducir la complejidad de las aplicaciones, impulsar el rendimiento, mejorar la seguridad de los datos y reducir costos.
Edward Screven, arquitecto jefe corporativo de Oracle, destacó que el asombroso ritmo de innovación de HeatWave continúa con la incorporación de HeatWave GenAI a las capacidades integradas existentes de HeatWave: HeatWave Lakehouse, HeatWave Autopilot, HeatWave AutoML y HeatWave MySQL y agregó que:
"...las actuales mejoras integradas y automatizadas de la IA permiten que los desarrolladores creen aplicaciones ricas en IA generativa con mayor rapidez, sin necesidad de tener conocimientos previos en el asunto ni de migrar datos. Ahora, los usuarios disponen de una forma intuitiva de interactuar con sus datos de la organización y obtener rápidamente las respuestas precisas que necesitan para su empresa".
Entre las nuevas funciones automatizadas e integradas de IA generativa se incluyen:
● Los LLM en base de datos simplifican el desarrollo de aplicaciones de IA generativa a un menor costo. Los clientes pueden beneficiarse de la IA generativa sin la complejidad de la selección e integración de LLM externos, y sin preocuparse por la disponibilidad de LLM en los centros de datos de varios proveedores de nube. Los LLM de la base de datos permiten que los clientes busquen datos, generen o resuman contenidos y realicen una generación aumentada por recuperación (RAG) con HeatWave Vector Store. Además, pueden combinar la IA generativa con otras capacidades integradas de HeatWave, como AutoML, para desarrollar aplicaciones más completas. HeatWave GenAI también se integra con el servicio OCI Generative AI para acceder a modelos fundacionales preentrenados de los principales proveedores de LLM.
● El almacenamiento vectorial automatizado en la base de datos permite que los clientes utilicen IA generativa con sus documentos empresariales sin necesidad de trasladar los datos a una base de datos vectorial independiente y sin conocimientos previos de IA. Todos los pasos para crear un almacén vectorial e incrustaciones vectoriales están automatizados y se ejecutan dentro de la base de datos, incluida la detección de los documentos en el almacenamiento de objetos, su análisis sintáctico, la generación de incrustaciones de forma altamente paralela y optimizada, y su inserción en el almacén vectorial, lo que hace que HeatWave Vector Store sea eficiente y fácil de usar. El uso de un almacén vectorial para RAG ayuda a resolver el reto de las alucinaciones de los LLM, ya que los modelos pueden buscar datos propios con el contexto adecuado para proporcionar respuestas más precisas y relevantes.
● El procesamiento vectorial a escala ofrece resultados de búsqueda semántica muy rápidos sin pérdida de precisión. HeatWave admite un nuevo tipo de datos VECTOR nativo y una mejor implementación de la función de distancia, lo que permite que los clientes realicen consultas semánticas con SQL estándar. La representación columnar híbrida en memoria y la arquitectura escalable de HeatWave permiten que el procesamiento vectorial se ejecute con un ancho de banda cercano a la memoria y se paralelice en hasta 512 nodos HeatWave. De este modo, los clientes reciben respuestas rápidas. Los usuarios también pueden combinar la búsqueda semántica con otros operadores SQL para, por ejemplo, unir varias tablas con documentos diferentes y realizar búsquedas por similitud en todos los documentos.
● HeatWave Chat es un complemento de Visual Code para MySQL Shell que proporciona una interfaz gráfica para HeatWave GenAI y permite que los desarrolladores planteen preguntas en lenguaje natural o SQL. Lakehouse Navigator integrado permite a los usuarios seleccionar archivos del almacenamiento de objetos y crear un almacén de vectores. Los usuarios pueden buscar en toda la base de datos o restringir la búsqueda a una carpeta. HeatWave mantiene el contexto con el historial de las preguntas formuladas, las citas de los documentos fuente y la indicación al LLM. Esto facilita una conversación contextual y permite que los usuarios verifiquen la fuente de las respuestas generadas por el LLM. Este contexto se mantiene en HeatWave y está disponible para cualquier aplicación que la use.
Patrones de creación de almacenes vectoriales y procesamiento de vectores
La creación de un almacén vectorial para documentos en formato PDF, PPT, WORD y HTML es hasta 23 veces más rápida con HeatWave GenAI y a 1/4 del costo de utilizar Knowledge base para Amazon Bedrock.
Según demuestra un benchmark de terceros utilizando una variedad de consultas de búsqueda de similitud en tablas que van desde 1,6 GB a 300 GB de tamaño, HeatWave GenAI es 30 veces más rápido que Snowflake y cuesta un 25 por ciento menos, 15 veces más rápido que Databricks y cuesta un 85 por ciento menos, y 18 veces más rápido que Google BigQuery y cuesta un 60 por ciento menos.
Una prueba comparativa independiente revela que los índices vectoriales en Amazon Aurora PostgreSQL con pgvector pueden tener un alto grado de imprecisión y pueden arrojar resultados incorrectos. Por el contrario, el procesamiento de búsqueda de similitudes de HeatWave proporciona siempre resultados precisos, tiene un tiempo de respuesta predecible, se realiza a una velocidad cercana a la de la memoria y es entre 10 y 80 veces más rápido que Aurora, utilizando el mismo número de núcleos.
Dan McNamara, vicepresidente sénior y director general de la Unidad de Negocio de Servidores de AMD, destacó que:
"...nos complace continuar nuestra sólida colaboración con Oracle para ofrecer la potencia y la productividad de la IA con HeatWave GenAI para cargas de trabajo y conjuntos de datos empresariales críticos. El trabajo de ingeniería conjunto llevado a cabo por AMD y Oracle está permitiendo a los desarrolladores diseñar innovadoras soluciones de IA empresarial aprovechando HeatWave GenAI impulsado por la densidad de núcleo y el excepcional rendimiento-precio de los procesadores AMD EPYC".
Desde la empresa recalcan que HeatWave es el único servicio en la nube que ofrece IA generativa automatizada e integrada y aprendizaje automático juntos para transacciones y análisis a escala de lagos de datos.
Componente central de la estrategia de nube distribuida de Oracle, HeatWave está disponible de forma nativa en OCI y Amazon Web Services, en Microsoft Azure a través de Oracle Interconnect para Azure, y en los centros de datos de los clientes con OCI Dedicated Region y Oracle Alloy.