Oracle annuncia HeatWave GenAI, con i primi Large Language Model in-database sul mercato e funzionalità vettoriali automatizzate all’interno del database. I clienti possono creare applicazioni di intelligenza artificiale generativa senza avere bisogno di competenze di AI, senza dover spostare dati né incorrere in costi aggiuntivi. HeatWave GenAI è 30 volte più veloce di Snowflake, 18 volte più veloce di Google BigQuery e 15 volte più veloce di Databricks per l’elaborazione dei vettori.
Un vector store per i contenuti aziendali non strutturati con un singolo comando SQL
Queste nuove funzionalità permettono ai clienti di sfruttare la potenza dell’intelligenza artificiale generativa per operare sui propri dati aziendali – senza avere bisogno di competenze di AI o senza dover spostare i dati in un database vettoriale separato. HeatWave GenAI è disponibile subito in tutte le Oracle cloud region, nelle OCI – Oracle Cloud Infrastructure – Dedicated Region (DRCC, “Dedicated Region Cloud@Customer”) e in vari altri cloud, senza costi aggiuntivi per i clienti che già utilizzano HeatWave.
Con HeatWave GenAI, gli sviluppatori possono creare un vector store per i contenuti aziendali non strutturati con un singolo comando SQL, utilizzando modelli di embedding integrati. Gli utenti possono eseguire ricerche in linguaggio naturale con una singola azione, utilizzando LLM in-database o esterni. I dati non lasciano il database e, grazie all’estrema scalabilità e alle performance di HeatWave, non è necessario eseguire il provisioning delle GPU. Di conseguenza, gli sviluppatori possono ridurre la complessità delle applicazioni, aumentare le performance, migliorare la sicurezza dei dati e ridurre i costi.
“HeatWave conferma la sua straordinaria velocità di innovazione con l’aggiunta di HeatWave GenAI alle funzionalità integrate già esistenti: HeatWave Lakehouse, HeatWave Autopilot, HeatWave AutoML e HeatWave MySQL”, ha dichiarato Edward Screven, chief corporate architect di Oracle.
“Le nuove potenzialità dell’integrazione dell’intelligenza artificiale e dell’automazione consentono oggi agli sviluppatori di creare applicazioni di intelligenza artificiale generativa avanzate più rapidamente, senza aver bisogno di competenze di AI o di spostare i dati. Gli utenti ora hanno un modo intuitivo di interagire con i dati aziendali e ottenere rapidamente le risposte accurate che necessitano”.
“HeatWave GenAI rende estremamente facile sfruttare l’intelligenza artificiale generativa”, ha dichiarato Vijay Sundhar, fondatore e chief executive officer della società SmarterD. “Il supporto per i LLM in-database e la creazione dei vettori in-database riduce significativamente la complessità dell’applicazione; rende prevedibile la latenza dei processi d’inferenza ed evita costi aggiuntivi per utilizzare LLM o creare integrazioni. Questa è una vera democratizzazione dell’intelligenza artificiale generativa che porterà alla creazione d’applicazioni più ricche e a una maggiore produttività”.
Le nuove funzionalità di AI Gen integrate
Ecco le nuove funzionalità d’intelligenza artificiale generativa automatizzate ed integrate oggi disponibili:
- I Large Language Model all’interno del database semplificano lo sviluppo d’applicazioni d’intelligenza artificiale generativa a un costo inferiore.
- I clienti possono trarre vantaggio dalla GenAI senza farsi carico della selezione e integrazione degli LLM esterni né preoccuparsi della disponibilità degli LLM nei datacenter dei loro vari fornitori cloud.
- I Large Language Model in-database permettono ricerche sui dati; generano o riepilogano contenuti ed eseguono retrieval-augmented generation (RAG) con HeatWave Vector Store. Inoltre combinano l’intelligenza artificiale generativa con altre funzionalità integrate come AutoML per creare applicazioni più ricche. HeatWave GenAI è integrata anche col servizio OCI GenAI per accedere a modelli pre-addestrati dai principali provider LLM.
- Il Vector Store automatizzato consente ai clienti d’utilizzare l’intelligenza artificiale generativa coi documenti aziendali senza spostare i dati né avere competenze specifiche d’IA.
- Tutti i passaggi necessari alla creazione del vector store sono automatizzati ed eseguiti nel database: ciò include ricerca documentale nell’object storage; analisi; embedding altamente parallelo ottimizzato; inserimento nel vector store rendendo il tutto efficiente da usare.
- Utilizzare un vector store per RAG risolve il problema delle “allucinazioni” dei Large Language Model poiché questi cercano dati proprietari nel contesto appropriato fornendo risposte accurate.
- L’elaborazione vettoriale scale-out offre risultati rapidi nella ricerca semantica mantenendo accuratezza/precisione.
- Supporta nuovi tipi nativi VECTOR ottimizzando funzioni distanza permettendo query semantiche SQL standardizzate rappresentando colonne ibride memoria-interna scalabili orizzontalmente parallelizzabili fino a 512 nodi ottenendo risposte rapide combinabili ad altri operatori SQL.
- HeatWave Chat plugin Visual Code MySQL Shell fornisce interfaccia grafica consentendo domande naturali/SQL Navigator integrato selezionante file storage oggetti creando memoria vettoriale cercabile limitatamente cartelle mantenendo contesto cronologia domande citazioni documentarie prompt LLM facilitando conversazioni contestuali verificabili origine risposte generate conservandosi disponibile future applicazioni.
Benchmark per la creazione di vector store e l’elaborazione vettoriale
La creazione di un vector store per i documenti in formato PDF, PPT, WORD e HTML è fino a 23 volte più veloce con HeatWave GenAI; il suo costo è pari a un quarto del prezzo di utilizzo di Knowledge base per Amazon Bedrock.
Come dimostrato da un benchmark di terze parti che utilizza una vasta gamma di query di ricerca di somiglianza, su tabelle di dimensioni comprese tra 1,6GB e 300 GB, HeatWave GenAI è 30 volte più veloce di Snowflake e costa il -25% in meno, 15 volte più veloce di Databricks e costa l’-85% in meno e 18 volte più veloce di Google BigQuery e costa il -60% in meno.
Un altro benchmark rivela che gli indici vettoriali in Amazon Aurora PostgreSQL con pgvector possono avere un grado elevato di imprecisione e possono produrre risultati errati. Al contrario, l’elaborazione della ricerca di somiglianza HeatWave fornisce sempre risultati accurati, ha tempi di risposta prevedibili, viene eseguita a una velocità near-memory ed è fino a 10 volte più veloce di Aurora utilizzando lo stesso numero di core.
“Siamo entusiasti di continuare la nostra già consolidata collaborazione con Oracle per offrire la potenza e la produttività dell’intelligenza artificiale con HeatWave GenAI per carichi di lavoro e data-set aziendali strategici“, ha dichiarato Dan McNamara, senior vice president e general manager, Server Business Unit, AMD. “Il lavoro di progettazione congiunto intrapreso da AMD e Oracle sta consentendo agli sviluppatori di progettare soluzioni aziendali di intelligenza artificiale innovative sfruttando HeatWave GenAI, una soluzione supportata dalla densità di core e dall’eccezionale rapporto prezzo/prestazioni dei processori AMD EPYC“.
Conclusioni
HeatWave HeatWave è l’unico servizio cloud che offre intelligenza artificiale generativa e machine learning integrati e automatizzati in un’unica offerta per transazioni e analytics su scala lakehouse. HeatWave, un componente fondamentale della strategia di cloud distribuito di Oracle, è disponibile in maniera nativa su OCI e Amazon Web Services, su Microsoft Azure tramite Oracle Interconnect for Azure e nei data center dei clienti con OCI Dedicated Region e Oracle Alloy.