L’intelligenza artificiale ha conquistato ogni settore, dalla sanità alla finanza, passando per l’educazione e la creatività. Ma dietro questa forza rivoluzionaria si nasconde un’anomalia tanto affascinante quanto pericolosa: le cosiddette allucinazioni dell’Ai. Parliamo di momenti in cui un modello, con la sicurezza di chi crede di sapere tutto, inventa fatti, distorce dati, propone soluzioni assurde o fuorvianti. E lo fa senza il minimo dubbio, come se la verità fosse sempre e comunque dalla sua parte.
Non è un dettaglio. Quando si parla di diagnosi mediche, di analisi finanziarie o di dati pubblici, un errore di questo tipo può trasformarsi in un disastro. È come se un chirurgo, nel mezzo di un’operazione, si affidasse a una mappa sbagliata disegnata da qualcuno che non è mai entrato in sala operatoria.
Il bello – e insieme il limite – è che noi umani, anche da bambini, abbiamo una capacità straordinaria: quella di intuire il senso delle cose con pochissimi indizi.
Le Ai, al contrario, spesso inciampano quando devono astrarre, generalizzare o semplicemente “capire” davvero. Anche i modelli più avanzati – come GPT-4 o Claude 2 – possono cadere in queste allucinazioni dell’Ai. Alcuni si comportano meglio: Claude 2, ad esempio, ha mostrato solo un 5% di risposte errate nei test più recenti. Ma basta salire su modelli meno raffinati come GPT-3.5 o LLaMA 13B, e il tasso d’errore può schizzare fino al 21%. E non è solo una questione di dati: è una questione di struttura, di architettura cognitiva, di ciò che distingue l’intelligenza dalla pura potenza computazionale.
La ricerca ha cominciato a reagire. Come risolvere il problema dell Allucinazioni dell’Ai? C’è chi propone di “nutrire” l’AI con fonti esterne verificabili, chi lavora sul modo in cui formuliamo le domande, chi costruisce meccanismi di autocritica all’interno del modello stesso. Ma la verità è che, oggi, il rischio resta. E comprenderlo è il primo passo per non subirlo.
Se vuoi approfondire, il report pubblicato da Visual Capitalist offre un’analisi dettagliata dei modelli AI più affidabili e delle tecniche attuali per mitigare il fenomeno delle Allucinazioni dell’Ai.
Leggi il pensiero di IBM sulle allucinazioni dell Ai
E mentre l’intelligenza artificiale evolve, noi dobbiamo restare più svegli che mai. Perché dietro ogni risposta perfetta potrebbe nascondersi una bugia ben costruita cioe una perfetta allucinazione dell’Ai.
Se sei curioso sui limiti dell’Ai leggi questo post
— Fei-Fei Li, Co-Direttrice dell’Istituto per l’Intelligenza Artificiale Centrata sull’Uomo di Stanford e Professore alla Graduate School of Business.