Immaginate di poter viaggiare su pianeti alieni, incontrare creature fantastiche e vivere avventure che sfidano ogni immaginazione. Un tempo relegato al regno della fantasia, questo futuro potrebbe non essere poi così lontano dalla realtà grazie all’intelligenza artificiale (IA) e, in particolare, all’intelligenza artificiale generativa (GenAI).
Nelle pieghe del machine learning si cela un fenomeno affascinante e misterioso: le allucinazioni AI. Non si tratta di visioni mistiche o di esperienze psichedeliche, ma di un processo creativo in cui l’IA “vede” cose che non esistono realmente.
Sommario
Cosa sono le Allucinazioni AI
Per usare parole semplici, le allucinazioni AI si verificano quando un modello di intelligenza artificiale propone una risposta che contiene informazioni false o fuorvianti presentate come fatti. In altre parole, l’IA inventa di sana pianta informazioni, creando output che non corrispondono alla realtà.
Origine del termine
Il termine “allucinazioni” viene usato in riferimento alle percezioni sbagliate o distorte, simili a quelle che alcune persone sperimentano a causa di disturbi mentali o effetti di droghe. Tuttavia, quando si applica alle Intelligenze Artificiali (IA), questa analogia può essere fuorviante. Le “allucinazioni” delle IA non sono dovute a una percezione errata della realtà, ma piuttosto a una elaborazione erronea dei dati di addestramento o alla complessità dei modelli utilizzati.
È importante ricordare che le IA non possono percepire o comprendere nel senso umano del termine. Anche se le loro risposte possono sembrare sensate e dare l’impressione che le IA abbiano compreso il significato delle domande che vengono loro poste, in realtà producono risposte basate su probabilità statistiche.
Nonostante ciò, questa antropomorfizzazione del termine “allucinazioni” fornisce un’idea chiara delle situazioni in cui le IA possono generare risultati inattesi o apparentemente non correlati ai dati di ingresso.
Ora, con questa distinzione chiara in mente, possiamo analizzare più approfonditamente le “allucinazioni” delle IA.
Perché si verificano
Le cause delle allucinazioni AI sono ancora oggetto di studio, ma diverse ipotesi possono essere formulate:
- Dati di addestramento incompleti o errati: se l’IA viene addestrata con dati di scarsa qualità o che contengono errori, è probabile che generi output distorti o inventati;
- Mancanza di informazioni contestuali: l’IA potrebbe non avere abbastanza informazioni per comprendere correttamente il contesto di un’immagine o di un testo, portandola a creare interpretazioni errate;
- Complessità dei modelli AI: modelli di intelligenza artificiale molto complessi possono essere difficili da controllare e da interpretare e potrebbero generare output inaspettati o non voluti.
Esempi di Allucinazioni AI
Le allucinazioni AI possono assumere diverse forme, a seconda del tipo di modello utilizzato e del compito che l’IA sta svolgendo. Ecco alcuni esempi, abbastanza famosi di allucinazioni AI:
Immagini
Non sono rari i casi di modelli di IA addestrati per generare immagini, ad esempio di gatti, che potrebbero creare un gatto con caratteristiche impossibili, come tre occhi o una coda di drago. Ciò capita anche con figure umane.
Testi
Un modello di IA addestrato per scrivere testi potrebbe generare una storia che contiene eventi impossibili o illogici o, peggio ancora, fake news, presentandole come vere. Spesso vengono generati testi, sostenendo le ipotesi presentate citando fonti che non sono vere.
Musica
Un modello di IA addestrato per comporre musica potrebbe creare una melodia che non è in armonia o che contiene suoni dissonanti, oppure generi musicali completamente nuovi e originali.
Esempi famosi di Allucinazioni AI
Ci sono stati alcuni casi abbastanza ecclatanti di episodi in cui una GenAI ha presentato testi con evidenti casi di allucinazioni. Uno di questi è rappresentato da un avvocato di New York che, per preparare una causa, aveva chiesto aiuto a una GenAI per recuperare casi simili. Il problema fu che sei di questi casi portati dalla GenAI a sostegno della causa dell’avvocato erano completamente inventati. Era stati però confezionati talmente bene da essere scambiati per casi reali.
Un secondo caso ecclatante ha per protagonista BARD (il predecessore di Gemini), il quale, interrogato da un bambino sulle scoperte del nuovo telescopio James Webb, rispose dicendo che a quel telescopio erano dovute le prime immagini di un pianeta extrasolare. Informazione completamente falsa dal momento che le prime immagini di un pianeta al di fuori del sistema solare sono del 2004, mentre James Webb è stato lanciato ben 17 anni dopo!
Esistono casi molto famosi anche di articoli a sostegno di tesi scientifiche, sostenute da tanto di bibliografie e attribuzioni che sono completamente false.
Nell’immagine qui sotto vi presento un esempio di Allucinazione AI che potete fare anche voi. Provate a chiedere a ChatGPT “qual è il record mondiale di attraversamento a piedi del Canale della Manica?“.
A voi il risultato
Le allucinazioni: un problema o un’opportunità
Le allucinazioni AI come problema
Non è certo una domanda banale, anche se a prima vista potrebbe sembrare. Sicuramente gli esempi sopra citati ci fanno comprendere come i prodotti delle AI debbano necessariamente essere sottoposti ad un severo fact checking. Questo non solo perché potrebbero contenere informazioni non vere, ma anche perchè il pericolo che le GenAI possano generare contenuti offensivi, discriminatori o dannosi è più che concreto.
Ricorderete tutti il caso di Tay, l’intelligenza artificiale di Microsoft che nel marzo 2016 inondò Twitter di commenti razzisti, discriminatori o, nella migliore delle ipotesi, non politicamente corretti.
A tal proposito è da segnalare anche il danno di immagine che si può ritorcere contro un’Azienda che non effettui i doverosi controlli sui contenuti generati dalle AI che utilizza.
Come mitigare i rischi
Esistono diverse opzioni che possono essere messe in campo al fine di mitigare i rischi legati al fenomeno delle allucinazioni:
- Utilizzare dati di addestramento di alta qualità: l’IA dovrebbe essere addestrata con dati di alta qualità e privi di errori;
- Fornire all’IA informazioni contestuali: l’IA dovrebbe avere accesso a tutte le informazioni necessarie per comprendere correttamente il contesto di un’immagine o di un testo; di qui l’importanza fondamentale nel formulare prompt chiari, specifici e contestualizzati;
- Monitorare l’output dell’IA: è importante monitorare l’output dell’IA per identificare eventuali errori o contenuti offensivi;
- Sviluppare principi etici per l’utilizzo dell’IA: è importante sviluppare principi etici per l’utilizzo dell’IA che garantiscano un uso responsabile di questa tecnologia.
Le allucinazioni AI come opportunità
Nonostante i rischi, le allucinazioni AI possono essere viste come un’opportunità per esplorare nuovi territori creativi e per generare contenuti innovativi. In mani esperte, l’IA può essere utilizzata per:
- Creare opere d’arte originali: l’IA può essere utilizzata per creare opere d’arte originali e innovative, come dipinti, sculture e musica;
- Progettare nuovi prodotti: l’IA può essere utilizzata per generare nuovi concept di design per prodotti, edifici e interfacce utente;
- Sviluppare soluzioni innovative: l’IA può essere utilizzata per sviluppare soluzioni innovative in diversi campi, dalla medicina alla scienza.
Conclusioni e riflessioni finali
Le allucinazioni AI sono un fenomeno affascinante e complesso che apre nuove possibilità per la creatività e l’innovazione. È importante però essere consapevoli dei potenziali rischi e utilizzare questa tecnologia in modo responsabile.
Le allucinazioni AI sono un territorio inesplorato che ci porta a riflettere sul rapporto tra uomo e macchina. In un futuro in cui l’IA è sempre più pervasiva, sarà fondamentale trovare un equilibrio tra la sua capacità di generare nuove idee e la necessità di un controllo umano per evitare che questa tecnologia possa creare danni, fake news o discriminazioni.