17.05.2025
12 Street, Rome City, Italy
Technology

«Può avere allucinazioni e dare risposte sbagliate, rischi per la salute e legali. Una signora ha perso casa»


Risposte sbagliate ma fornite come vere. Allucinazioni dell’intelligenza artificiale. Sono sempre più frequenti e rischiano di generare equivoci dannosi. Come quello di una signora americana che ha chiesto a ChatGPT di scrivere il contratto immobiliare solo che questo era pieno di riferimenti sbagliati. Oppure c’è anche il pericolo di diagnosi errate. Come nel caso in cui si chieda di quale malattia si soffre descrivendo i sintomi. Non considerando che i nuovi modelli possono portare a esiti completamente fuorvianti. «Le allucinazioni dell’intelligenza artificiale sono il problema più importante in questo campo», spiega l’ingegnere Pietro Schirano. L’esperto del settore ha lavorato per Facebook e Uber, e ora ha fondato una sua azienda, EverArt, che permette di creare immagini sui prodotti specifici con l’AI.

Cosa sono e come si creano le «allucinazioni»?

Il presupposto è un modello IA (Chat Gpt o qualunque altro modello di linguaggio) è la compressione di tutto l’internet. Quindi, per esempio, se chiedi dov’è il sole ti dirà è nel cielo. Perché la probabilità che quella frase esatta è praticamente 99.9%. Però, ogni volta che chiedi un’informazione un po’ più particolare (per esempio chimiche, storiche o filosofiche) possono arrivare queste che sono chiamate allucinazioni. È il modello che “sogna” un’informazione sbagliata, perché l’obiettivo del modello è sempre quello di aiutarti. L’IA sono studiate per essere strumenti utili. Programmati per aiutarti “no matter what”. Anche quando non sono sicuri delle informazioni al 100%, ti danno una risposta.

Quali le cause?

È una combinazione della mancanza di informazioni esatte su quel particolare topic e il fatto che ti cerca di aiutare anche quando sa che sta sbagliando.

È impostata male? Perché risponde semplicemente che non ha informazioni?

È impostata in modo che riesca a dare informazioni anche quando non le ha. I modelli si cercano di allenare nella maniera più positiva.

Come riconoscerle?

Le allucinazioni sono legate anche a quanto è “intelligente” il modello. Quindi modelli più intelligenti avranno meno allucinazioni. Ad esempio, Chat Gpt 4 è uscito nel 2023 e, a un anno di distanza, siamo già a un livello molto migliore a livello di allucinazioni. Più informazioni nel modello, meno allucinazioni. L’altra parte fondamentale sono le citazioni. Adesso ci sono modelli di intelligenza artificiale che sono capaci di dire dove hanno trovato le informazioni (ad esempio su Wikipedia o su un articolo del Messaggero). Una funzione molto importante. C’è poi la RAG, augmented retrieval information. Anziché chiedere a Chat Gpt una risposta dal nulla, si inseriscono tanti documenti così da avere una risposta da quelli. Anche in questo caso un lavoro di citazioni per far sì che l’informazione sia basata nella realtà.

Novità?

Chat Gpt ha lanciato la funzione di ricerca, dove si può fare una ricerca on-line prima di risponderti. Questi sono passi per eliminare le allucinazioni.

Le allucinazioni sono il vero problema di Chat Gpt?

Dipende dal modello. Ad esempio, Chat Gpt mini è quello che ti darà più allucinazioni perché è quello più piccolo.

Come si possono evitarle? Trucchi?

Un trucco è indicare nella domanda “prima di rispondere provvedi a fornire almeno cinque fonti per queste informazioni”. Però può succedere che c’è anche un’allucinazione delle fonti. Quando vai ad esempio a cliccare su sito poi scopri che non esiste. È un po’ il gatto che si morde la coda.

I rischi?

Consigli medici sbagliati. C’è chi chiede a Chat Gpt quale malattia ha descrivendo i sintomi e la diagnosi è poi sbagliata. Magari quella persona non era neanche malata e non aveva bisogno di farmaci. Altro rischio è legale. Un caso famoso è quello di una persona che aveva scritto un contratto immobiliare con Chat Gpt, che però era pieno di allucinazioni, con leggi che non esistevano. Sono gli aspetti più preoccupanti. Inoltre, il 25% di tutto il codice che si fa a Google adesso è generato con l’IA. Anche quello è un rischio, proprio per gli errori e i bug.

© RIPRODUZIONE RISERVATA

Leave feedback about this

  • Quality
  • Price
  • Service
[an error occurred while processing the directive]