Retrieval-Augmented Generation: Generative AI al servizio del business

Retrieval Augmented Generation

Condividi

L’Intelligenza Artificiale Generativa (Generative AI o GenAI) è diventata uno strumento sempre più importante per le aziende, rivoluzionando il modo in cui vengono creati contenuti e interagiamo con le tecnologie, in particolare grazie ai chatbot e assistenti virtuali. Questa tecnologia è basata su modelli linguistici di Machine Learning estremamente grandi e complessi chiamati Large Language Models o LLM, in grado di generare contenuti human-like sulla base della richiesta dell’utente. Inizialmente in grado di fornire solo semplici contenuti text-to-text, negli ultimi anni abbiamo osservato la straordinaria evoluzione degli LLM, che ora sono in grado di scrivere articoli, generare codice funzionante, produrre immagini, video e molto altro.

La lenta adozione della Generative AI

Nonostante le capacità dei Large Language Model, essi presentano alcuni limiti e la loro adozione all’interno dei contesti aziendali è ancora nelle fasi iniziali. 

Idealmente, vorremmo avere modelli versatili, veloci e sempre aggiornati sul patrimonio informativo dell’azienda. Avere un assistente virtuale capace di connettersi ai dati aziendali porta a un forte aumento della produttività e abbassa la soglia per l’adozione di tecnologie di Data Analytics e Business Intelligence, sempre più importanti per mantenere un vantaggio competitivo.  

Il principale limite degli LLM è il fatto che conoscono solo le informazioni sulle quali sono stati addestrati: questi modelli, infatti, vengono costruiti attraverso complessi algoritmi statistici che analizzano il contenuto di articoli, libri, righe di codice, ecc. che viene loro fornito. Un modello rilasciato a fine 2024 non potrà avere informazioni certe sul 2025, a meno che non attraversi una nuova procedura di addestramento. 

Le allucinazioni degli LLM

Chi utilizza spesso la GenAI sa che i modelli sono soggetti ad “Allucinazioni” (Hallucinations): un comportamento anomalo per cui viene generata una risposta semanticamente corretta e convincente, ma inaccurata. Riprendendo l’esempio citato sopra, un modello potrebbe generare una risposta riguardo a fatti del 2025 utilizzando come fonti eventi avvenuti nel 2024, oppure potrebbe citare come fonti articoli che non esistono. 

I costi elevati degli LLM

I LLM sono estremamente complessi e costosi da addestrare e mantenere, per cui la maggior parte degli utenti li sfrutta tramite un paradigma “as-a-service”, in cui non si ha controllo sull’intera infrastruttura ma si paga in base all’utilizzo.

Ampliare la conoscenza di un LLM tramite addestramento (in gergo tecnico si parla di “Fine-Tuning”) è una strada generalmente non percorribile. In questa ottica, la tecnologia RAG rappresenta una valida alternativa per aggiungere informazioni rilevanti ai modelli senza necessità di addestramento e permette di ottenere risposte sempre più accurate

RAG Generative AI

Come funziona la tecnologia Retrieval-Augmented Generation (RAG)?

L’architettura RAG prevede di collegare il LLM a uno o più database documentali: quando viene fatta una richiesta dall’utente, questa viene analizzata e utilizzata per estrarre dai DB documentali tutti i documenti (o parti di documento) che possono essere rilevanti ai fini di ottenere una risposta. Dopo una breve rielaborazione, sia la richiesta iniziale dell’utente che i documenti rilevanti vengono passati al LLM, il quale avrà ora a disposizione molte più informazioni per soddisfare la richiesta dell’utente. 

Di fatto, l’adozione del RAG non prevede di modificare il modello di GenAI e può essere vista come versione avanzata di Prompt Engineering: Si costruisce intorno al modello un processo di analisi e raccolta informazioni che permette di passare un prompt (richiesta + contesto) molto informativo, riducendo significativamente il rischio di allucinazione dei LLM per le tematiche presenti nei databases documentali.

RAG-based AI Applications (generazione potenziata da recupero dati)

Utilizzando la tecnologia RAG è quindi possibile potenziare le capacità di un modello LLM aggiungendo informazioni di contesto da fonti esterne: documenti aziendali, internet, basi di dati, tabelle storiche, ecc.

Alcuni esempi di applicazioni sono:

  • Chatbot Aziendali e Assistenza Clienti: i chatbot basati su RAG forniscono risposte accurate e personalizzate basate su dati interni (es. manuali, report, schede prodotto), migliorando l’assistenza clienti e l’efficienza interna.
  • Analisi di Documenti e BI: il RAG può automatizzare l’estrazione di dati da documenti non strutturati (es. fatture, contratti) e supportare la Business Intelligence, fornendo analisi e previsioni basate su dati aziendali in tempo reale

L’implementazione di un’architettura RAG

L’implementazione di un’architettura RAG può essere divisa in 3 fasi:

  • Preparazione dei dati (embedding e vettorizzazione): vengono creati e popolati i database documentali. Il contenuto dei documenti viene suddiviso in blocchi (“Chunks”) e poi trasformati da testo/immagini a vettori numerici (“Embeddings”) per poter essere archiviati. Questa procedura è chiamata Vettorizzazione e può essere svolta tramite modelli di Deep Learning. 
  • Setup e Recupero: viene costruito il processo che riceve la richiesta dall’utente e recupera i dati più pertinenti dal database documentale. Tutti questi dati vengono rielaborati in modo da generare un singolo prompt che contiene la richiesta dell’utente e i dati di contesto
  • Generazione (Augmented Generation): il Large Language Model riceve il prompt costruito nella fase precedente e genera una risposta accurata e contestualizzata. Questi modelli sono capaci di ricevere come input anche prompt di dimensioni considerevoli, quindi l’aggiunta di quante più informazioni di contesto possibile è spesso determinante per migliorare le risposte.

Quali sono i vantaggi del Retrieval-Augmented Generation?

Rispetto alla strategia di Fine-Tuning, che prevede di addestrare nuovamente un modello, la strategia di RAG è molto più economica e consente di ottenere risposte sempre aggiornate, in quanto il modello rimane agnostico rispetto alle informazioni aziendali, che vengono passate ad ogni prompt. Costruire applicazioni AI tramite RAG risulta anche più semplice, in quanto sono perfettamente integrabili con i servizi di Generative AI as-a-service, e alcuni cloud provider come AWS, Google e Microsoft, mettono a disposizione servizi cloud per costruire, deployare e monitorare tecnologie RAG.

Dal punto di vista della sicurezza, un’applicazione RAG permette di mantenere la data governance in quanto i dati rimangono sempre all’interno del cloud o infrastruttura aziendale. Inoltre, se correttamente implementata, garantisce il rispetto delle normative GDPR (Regolamento generale sulla protezione dei dati) perché e tutte le informazioni PII (Personal Identifiable Information) non vengano esposte a utenti non autorizzati.

Contatta gli esperti

Blue BI considera l’innovazione il motore della propria crescita, e l’arrivo della Generative AI combinata con tecnologia RAG rappresenta strumento capace di ridisegnare processi, decisioni e interazioni con i clienti. Le nostre soluzioni comprendono chatbot e assistenti virtuali sempre aggiornati, analytics arricchite da informazioni aziendali e molto altro.

Scopri come Blue BI può aiutarti a costruire la tua prossima soluzione AI.

Realizziamo soluzioni di Business Intelligence & Advanced Analytics per trasformare semplici dati in informazioni di grande valore strategico.

Tabella dei Contenuti