Nonostante le sue prestazioni siano impressionanti e diano a molti l’illusione di una qualche capacità di pensare, le decisioni razionali non sono il punto forte di ChatGPT e degli altri sistemi linguistici basati sull’Intelligenza Artificiale (AI). Lo dimostra la ricerca dell’Università della California Meridionale pubblicata sulla rivista Royal Society Open Science: messo di fronte ad una scelta, basata sul lancio di una monetina, tra vincere un diamante e perdere un’automobile, ChatGPT non è in grado di riconoscere quella più vantaggiosa e sceglie in maniera del tutto casuale.
ChatGPT può essere in grado di generare biografie, poesie o immagini su richiesta, ma il suo funzionamento si basa su informazioni già esistenti: è in grado di ‘imparare’ e rielaborare enormi moli di dati e fornisce una risposta che è semplicemente quella ritenuta più probabile e adeguata dal punto di vista statistico. “Nonostante le loro capacità, i modelli linguistici come ChatGPT non pensano davvero”, dicono i due autori dello studio, Zhisheng Tang e Mayank Kejriwal: “tendono a commettere errori elementari e persino a inventare cose”. Tuttavia, grazie al loro uso molto fluente del linguaggio, ingannano l’utilizzatore.
I due ricercatori hanno evidenziato i limiti del sistema messo a punto da OpenAI proponendo scelte simili a scommesse, basate sul lancio di una moneta oppure su carte e dadi: nonostante ChatGPT sia stato addestrato a prendere “decisioni relativamente razionali”, le sue prestazioni nel corso di questo esperimento sono state abbastanza scarse. “L'idea che al modello possano essere insegnati i principi generali del processo decisionale razionale rimane irrisolta”, commentano gli autori dello studio: “Il processo decisionale resta un problema non banale anche per sistemi di linguaggio molto più grandi e avanzati”.