top of page

Cosa sono le allucinazioni dell'IA? AI hallucinations

La recente proliferazione dei modelli generativi (GenAI) ha innescato un'ondata di interesse senza precedenti. Questi avanzati modelli di linguaggio (LLM) possono svolgere senza problemi diversi task, dallo scrivere email alla creazione di semplici piani di allenamento, dalla generazione di codice informatico a molte altre attività, la loro versatilità sembra infinita.


Sorgono però interrogativi intriganti e, talvolta, inquietanti. Tra questi, uno degli argomenti più affascinanti e dibattuti sono le cosiddette 'allucinazioni dell'IA'. Si tratta di un fenomeno intrigante e, in un certo senso, misterioso, che solleva interrogativi fondamentali sull'autonomia e la percezione di queste intelligenze non umane.


Le allucinazioni dell'IA sorgono in contesti in cui le reti neurali e i modelli generativi producono risultati inaspettati, creativi e, in alcuni casi, al di fuori dei parametri prefissati. Questi 'sbalzi' nell'elaborazione dell'informazione da parte delle IA generano output imprevisti e talvolta fantasiosi, che possono apparire come 'allucinazioni' percepibili solo in ambito tecnologico.


Cosa sono le allucinazioni dell'IA? AI hallucinations
Cosa sono le allucinazioni dell'IA? AI hallucinations


Cosa sono le allucinazioni dell'IA?

Le allucinazioni dell'IA rappresentano un fenomeno in cui un modello di linguaggio (LLM) genera informazioni false o erronee.


I LLM sono modelli di intelligenza artificiale che alimentano chatbot come ChatGPT e Google Bard. Le allucinazioni possono costituire deviazioni da fatti esterni, logica contestuale o entrambi.


Queste allucinazioni sono in realtà scontate perchè gli LLM non hanno comprensione della realtà sottostante che il linguaggio descrive. Essi si basano su statistiche per generare linguaggio grammaticalmente e semanticamente corretto all'interno del contesto fornito.



Quindi più semplicemente un'allucinazione si manifesta quando il modello generativo di intelligenza artificiale produce risultati senza senso o completamente falsi.


Immagina di chiedere a un'applicazione di IA cinque tipologie di biciclette adatti al retro del tuo veicolo sportivo, ma in realtà esistono solo tre opzioni. Il modello di turno potrebbe comunque generare cinque tipologie di bici, di cui due interamente inventati. Sebbene possa sembrare un esempio di allucinazione piuttosto innocuo, le conseguenze possono variare e talvolta essere significative.


Un episodio eloquente coinvolse un avvocato di New York che si affidò a un chatbot per la sua ricerca legale. Durante un caso, il giudice federale notò che sei dei precedenti citati erano completamente falsi. Il chatbot non solo li aveva inventati, ma li aveva anche confermati come dati disponibili nei principali database legali. Questa situazione evidenzia non solo la capacità delle IA di generare informazioni erronee, ma anche il rischio concreto che possono rappresentare in contesti critici come quello legale.


Affrontare le allucinazioni della GenAI richiede l'implementazione di adeguate misure preventive. È fondamentale comprendere come e, soprattutto, perché queste imprecisioni si verificano, ponendo così le basi per l'adozione di salvaguardie efficaci.


Cosa sono le allucinazioni dell'IA? AI hallucinations
Cosa sono le allucinazioni dell'IA? AI hallucinations


Esempi di allucinazioni dell'IA o AI hallucinations

Esistono esempi noti di allucinazioni dell'IA che hanno suscitato grande interesse. Uno di questi riguarda il chatbot di Google, Bard, e il famoso telescopio spaziale James Webb.


Quando interrogato sulle nuove scoperte del telescopio spaziale James Webb da raccontare a un bambino di 9 anni, Bard ha affermato che questo strumento aveva catturato le prime immagini di un pianeta extrasolare al di fuori del nostro sistema solare. Questa informazione era falsa: le prime immagini di un pianeta extrasolare risalgono al 2004 secondo la NASA, mentre il telescopio spaziale James Webb è stato lanciato solo nel 2021.


La risposta di Bard sembrava credibile, coerente con la richiesta, ma è stata smentita da una verifica dei fatti.


Un altro caso riguarda Meta, che ha presentato Galactica, un LLM progettato per ricercatori e studenti. Quando gli venne chiesto di redigere un articolo sulla creazione di un avatar, il modello ha citato un falso studio sull'argomento attribuito a un autore reale operante in un campo pertinente.

Cosa causa le allucinazioni dell'IA generativa?

Gli esperti di intelligenza artificiale non hanno ancora del tutto chiaro cosa scateni le allucinazioni, ma diversi fattori sono spesso indicati come possibili cause.


Innanzitutto, le allucinazioni possono verificarsi se i dati utilizzati per addestrare il modello sono carenti o presentano lacune che portano a casi non familiari al modello stesso. Ad esempio, un modello addestrato su contratti del settore finanziario potrebbe non avere una conoscenza sufficiente dei termini e dei concetti legati al diritto sanitario per redigere contratti in quel campo. Questo può portare a risultati errati quando l'IA genera un output basato su dati di addestramento insufficienti.


Allo stesso modo, alcuni modelli di machine learning soffrono di overfitting, dove l'accuratezza sull'insieme di dati di addestramento non si riflette sull'accuratezza su nuovi dati. Ciò può avere conseguenze critiche in situazioni come l'approvazione di prestiti, in cui un modello può sembrare accurato nel predire la probabilità di insolvenza ma, in realtà, potrebbe avere una precisione inferiore rispetto a quanto appare.


Un altro aspetto cruciale è la corretta codifica dei testi e delle istruzioni di addestramento.

I LLM, ad esempio, mappano le parole su vettori numerici, riducendo l'ambiguità ma richiedendo una codifica e decodifica accurata per evitare allucinazioni.


La qualità dei dati è fondamentale. Allucinazioni possono derivare da informazioni errate o inconsistenti presenti nei dati di addestramento. Gli LLM dipendono da un vasto insieme di dati che, se contengono rumore, errori o bias, possono generare allucinazioni.


La modalità di generazione è altrettanto rilevante. Anche con dati coerenti, il metodo di generazione può creare bias o errori, portando a allucinazioni. Modelli con bias verso parole specifiche o generiche influenzano le informazioni generate.


Infine, il contesto di input è determinante. Input poco chiari, incoerenti o contraddittori possono generare allucinazioni, mentre un input ben strutturato può migliorare i risultati.


Cosa sono le allucinazioni dell'IA? AI hallucinations
Cosa sono le allucinazioni dell'IA? AI hallucinations


Tipologie di allucinazioni dell'IA

Le allucinazioni possono variare da piccole incongruenze a informazioni completamente inventate o contraddittorie.


Esistono diverse tipologie di allucinazioni dell'IA:

  • Contraddizione tra frasi. Quando un LLM genera frasi che si contraddicono tra loro. Ad esempio:

    1. Prompt: "Descrivi un paesaggio in frasi di quattro parole."

    2. Output: "L'erba era verde. Le montagne erano blu. Il fiume era viola. L'erba era marrone."

  • Contraddizione rispetto al prompt. Quando una frase contraddice il prompt usato per generarla. Ad esempio:

    1. Prompt: "Scrivi una cartolina di compleanno per mia nipote."

    2. Output: "Grazie la cartolina con auguri!"

  • Contraddizione di fatto. Quando informazioni inventate vengono presentate come fatti. Ad esempio:

    1. Prompt: "Nomina tre città degli Stati Uniti."

    2. Output: "New York, Los Angeles, Toronto."

  • Allucinazioni irrilevanti o casuali. Quando vengono generate informazioni casuali non pertinenti all'input o all'output.

    1. Prompt: "Descrivimi Londra in modo sintetico."

    2. Output: "Londra è una città in Inghilterra. Situata in Europa"

Perché le allucinazioni dell'IA rappresentano un problema?

Il problema di chiamare questi output 'allucinazioni' è che sembra che l'IA sia come noi.

In realtà, l'IA non capisce come noi, ma può influenzare quello che percepiamo. È come un'illusione ottica: sembra vero, ma non lo è davvero.


Un'altrproblema è che queste allucinazioni sembrano sono ben camuffate. Se non si è pronti a esaminare criticamente ciò che l'IA produce si potrebbe icappare in bei casini. Questo è rischioso perché può diffondere informazioni sbagliate e essere usato per attacchi informatici.


Capire perché l'IA crea queste allucinazioni è difficile. Correggerle può essere complicato e costoso. È importante per gli utenti stare attenti, anche se non è sempre facile capire quando ci sono problemi.


Cosa sono le allucinazioni dell'IA? AI hallucinations
Cosa sono le allucinazioni dell'IA? AI hallucinations


Come prevenire le allucinazioni dell'IA

Ci sono diverse modalità con cui gli utenti possono evitare o ridurre al minimo le allucinazioni durante l'uso dei LLM, tra cui:

  • Usare prompt chiari e specifici. Fornire contesto aggiuntivo può guidare il modello verso l'output desiderato, limitando le possibili interpretazioni e fornendo al modello fonti di dati rilevanti.

  • Strategie di filtraggio e ranking. I LLM spesso hanno parametri regolabili dagli utenti, come il parametro di temperatura, che controlla la casualità dell'output. La gestione delle probabilità con TopK è un altro parametro regolabile.

  • Prompt multipli. Fornire diversi esempi del formato o del contesto desiderato può aiutare il modello a riconoscere i pattern.


OpenAI ha proposto una strategia per premiare i modelli AI per ogni passo corretto nel ragionamento verso la risposta corretta invece di premiare solo la conclusione corretta. Questo approccio, chiamato supervisione del processo, mira a manipolare i modelli affinché seguire un'approccio logico passo dopo passo.


Altre ricerche hanno proposto di puntare due modelli l'uno contro l'altro e istruirli a comunicare finché non giungono a una risposta.



Come individuare le allucinazioni dell'IA

Il modo più basilare per individuare un'allucinazione dell'IA è verificare attentamente l'output del modello. Questo può essere difficile con materiale complesso o poco familiare.


Gli utenti possono chiedere al modello di autovalutarsi e generare la probabilità che una risposta sia corretta o evidenziare le parti di una risposta che potrebbero essere errate, utilizzandole come punto di partenza per la verifica dei fatti.


Gli utenti possono anche familiarizzare con le fonti di informazione del modello per aiutare nella verifica dei fatti. Ad esempio, i dati di addestramento di ChatGPT terminano nel 2021, quindi qualsiasi risposta generata che si basi su conoscenze dettagliate del mondo successivamente a quel punto temporale è degna di doppio controllo.



Storia delle allucinazioni nell'IA

I ricercatori di Google DeepMind hanno introdotto il termine "IT hallucinations" nel 2018, guadagnandone popolarità. Il termine è diventato più popolare e strettamente legato all'IA con l'avvento di ChatGPT alla fine del 2022, che ha reso i LLM più accessibili.


Il termine è comparso anche nel 2000 in articoli presentati alla Quarta Conferenza Internazionale IEEE su Riconoscimento Automatico del Viso e dei Gesti. Un rapporto del 2022 denominato "Sondaggio sulle Allucinazioni nella Generazione di Linguaggio Naturale" descrive l'uso iniziale del termine in visione artificiale, attingendo dalla pubblicazione originale del 2000. Ecco parte della descrizione di quel sondaggio:


"…aveva significati più positivi, come la super risoluzione, il riempimento delle immagini e la sintesi delle immagini. Tale allucinazione è qualcosa di cui approfittiamo piuttosto che evitare nella visione artificiale. Tuttavia, lavori recenti hanno iniziato a riferirsi a un tipo specifico di errore come allucinazione nella descrizione delle immagini e nel riconoscimento degli oggetti, che denota oggetti non esistenti rilevati o localizzati nella posizione prevista. Quest'ultima concezione è simile all'allucinazione nella generazione di linguaggio naturale."


Cosa sono le allucinazioni dell'IA? AI hallucinations
Cosa sono le allucinazioni dell'IA? AI hallucinations

Conclusioni su Cosa sono le allucinazioni dell'IA? AI hallucinations

In conclusione, le allucinazioni nell'intelligenza artificiale, sebbene rappresentino una sfida significativa, non dovrebbero scoraggiare l'utilizzo e lo sviluppo dell'IA. È essenziale comprendere i rischi e adottare strategie per mitigarli. Utilizzando prompt chiari, migliorando la comprensione dei limiti delle IA generative e investendo nella ricerca per rendere questi sistemi più trasparenti ed affidabili, possiamo affrontare le sfide delle allucinazioni nell'IA. L'obiettivo rimane quello di sfruttare appieno il potenziale dell'intelligenza artificiale, garantendo nel contempo un utilizzo consapevole e responsabile di questa tecnologia sempre più presente nella nostra vita quotidiana.


PCR (5).gif
PCR (4).gif
PCR.gif
PCR.gif
PCR.gif
PCR.gif
PCR (5).gif
3.gif
Vediamo se riesci a cliccarmi ! Nascondo una Sorpresa... (2).png

Ciao 

🤗 Articoli consigliati dalla nostra
Intelligenza Artificiale in base ai tuoi interessi

Correlazione Alta

Correlazione Media

Correlazione Bassa

Iscriviti

VUOI DIVENTARE UN MEMBRO DI INTELLIGENZA ARTIFICIALE ITALIA GRATUITAMENTE E TRARNE I SEGUENTI BENEFICI?

Corsi Gratis

più di 150 lezioni online

Dataset Gratis

più di 150o dataset

Ebook Gratis

più di 10 libri da leggere

Editor Gratis

un editor python online

Progetti Gratis

più di 25 progetti python

App Gratis

4 servizi web con I.A.

Unisciti Ora a oltre
1.000.000
di lettori e appassionanti d'I.A.

Tutto ciò che riguarda l'intelligenza Artificiale, in unico posto, in italiano e gratis.

MEGLIO DI COSI' NON SI PUO' FARE

Dopo l'iscrizione riceverai diversi Regali

VUOI SCRIVERE ARTICOLI INSIEME A NOI.

Grazie

bottom of page