Gli strumenti di intelligenza artificiale inventano molte cose e questo è un grosso problema
Strumenti basati sull'intelligenza artificiale come ChatGPT ci hanno incantato con la loro capacità di produrre risposte autorevoli e dal suono umano a qualsiasi richiesta.
(CNN) — Prima che l’intelligenza artificiale possa conquistare il mondo, deve risolvere un problema. I robot hanno allucinazioni.
Strumenti basati sull'intelligenza artificiale come ChatGPT ci hanno incantato con la loro capacità di produrre risposte autorevoli e dal suono umano a qualsiasi richiesta. Ma man mano che sempre più persone si rivolgono a questa vivace tecnologia per cose come aiuto nei compiti, ricerche sul posto di lavoro o domande sulla salute, una delle sue maggiori insidie diventa sempre più evidente: i modelli di intelligenza artificiale spesso inventano solo cose.
I ricercatori sono arrivati a definire questa tendenza dei modelli di intelligenza artificiale a fornire informazioni imprecise come “allucinazioni” o addirittura “confabulazioni”, come ha detto in un tweet il capo dell’intelligenza artificiale di Meta. Alcuni utenti dei social media, nel frattempo, semplicemente accusano i chatbot di essere “bugiardi patologici”.
Ma tutti questi descrittori derivano dalla nostra tendenza fin troppo umana ad antropomorfizzare le azioni delle macchine, secondo Suresh Venkatasubramanian, professore alla Brown University e coautore del progetto della Casa Bianca per una Carta dei diritti dell'intelligenza artificiale.
La realtà, ha affermato Venkatasubramanian, è che i grandi modelli linguistici – la tecnologia alla base degli strumenti di intelligenza artificiale come ChatGPT – sono semplicemente addestrati a “produrre una risposta plausibile” ai suggerimenti degli utenti. "Quindi, in questo senso, qualsiasi risposta che sembri plausibile, che sia accurata o fattuale o inventata o meno, è una risposta ragionevole, ed è ciò che produce", ha detto. "Non c'è conoscenza della verità lì."
Il ricercatore sull’intelligenza artificiale ha affermato che un’analogia comportamentale migliore rispetto alle allucinazioni o alle bugie, che portano connotazioni di qualcosa che non va o ha cattive intenzioni, sarebbe paragonare questi risultati del computer al modo in cui suo figlio raccontava storie all’età di quattro anni. “Devi solo dire: 'E poi cosa è successo?' e avrebbe continuato a produrre altre storie", ha detto Venkatasubramanian. "E lui continuava all'infinito."
Le aziende dietro i chatbot IA hanno messo in atto alcuni guardrail che mirano a prevenire il peggio di queste allucinazioni. Ma nonostante l’hype globale sull’intelligenza artificiale generativa, molti nel settore rimangono indecisi se le allucinazioni dei chatbot siano o meno un problema risolvibile.
In parole povere, un’allucinazione si riferisce a quando un modello di intelligenza artificiale “inizia a inventare cose, cose che non sono in linea con la realtà”, secondo Jevin West, professore all’Università di Washington e co-fondatore del suo Center for an. Pubblico informato.
"Ma lo fa con pura sicurezza", ha aggiunto West, "e lo fa con la stessa sicurezza che lo farebbe se gli facessi una domanda molto semplice come: 'Qual è la capitale degli Stati Uniti?'"
Ciò significa che può essere difficile per gli utenti discernere cosa è vero o no se chiedono a un chatbot qualcosa di cui non conoscono già la risposta, ha detto West.
Numerose allucinazioni di alto profilo derivanti dagli strumenti di intelligenza artificiale hanno già fatto notizia. Quando Google ha presentato per la prima volta una demo di Bard, il suo attesissimo concorrente di ChatGPT, lo strumento ha fornito pubblicamente una risposta sbagliata in risposta a una domanda sulle nuove scoperte fatte dal telescopio spaziale James Webb. (Un portavoce di Google all'epoca disse alla CNN che l'incidente "sottolinea l'importanza di un rigoroso processo di test" e disse che la società stava lavorando per "assicurarsi che le risposte di Bard soddisfino un livello elevato di qualità, sicurezza e radicamento nelle informazioni del mondo reale .”)
Anche un veterano avvocato di New York è finito nei guai quando ha utilizzato ChatGPT per ricerche legali e ha presentato una memoria che includeva sei casi "falsi" che il chatbot sembra aver semplicemente inventato. Anche il notiziario CNET è stato costretto a rilasciare correzioni dopo che un articolo generato da uno strumento di intelligenza artificiale ha finito per fornire consigli di finanza personale estremamente imprecisi quando gli è stato chiesto di spiegare come funziona l'interesse composto.
Reprimere le allucinazioni dell’intelligenza artificiale, tuttavia, potrebbe limitare la capacità degli strumenti di intelligenza artificiale di aiutare le persone con sforzi più creativi, come gli utenti che chiedono a ChatGPT di scrivere poesie o testi di canzoni.