Se Amleto avesse usato ChatGPT, forse avrebbe risolto più facilmente i suoi dubbi: simili sistemi di intelligenza artificiale sono infatti in grado di influenzarci nelle decisioni e nei giudizi morali, anche se non ce ne accorgiamo. Lo dimostra un esperimento condotto dai ricercatori dell'Università tecnica di Ingolstadt, in Germania, in collaborazione con l'Università della Danimarca meridionale. I risultati sono pubblicati sulla rivista Scientific Reports.
I ricercatori, guidati da Sebastian Krugel, hanno domandato più volte a ChatGPT se fosse giusto sacrificare la vita di una persona per salvarne altre cinque, ottenendo risposte variabili, sia pro che contro, a dimostrazione del fatto che il chatbot non ha un preciso orientamento morale.
Successivamente i ricercatori hanno coinvolto 767 volontari (tutti americani con un'età media di 39 anni) sottoponendo loro un dilemma morale che imponeva di scegliere se sacrificare una persona per salvarne cinque. Prima di rispondere, i partecipanti hanno letto una delle risposte fornite da ChatGPT che argomentava a favore o contro il sacrificio: a volte veniva detto loro che erano parole di un consulente, altre volte veniva rivelato che erano parole scritte dal chatbot.
Come risultato, si è scoperto che le risposte dei partecipanti erano state influenzate da ciò che avevano letto prima, anche quando le parole erano state chiaramente attribuite a ChatGPT. I volontari, però, non sembrano essersi accorti di questo condizionamento, tanto che l'80% di loro ha dichiarato che la propria risposta non erano stata influenzata da ciò che aveva letto.
Lo studio evidenzia quindi la necessità di una maggiore educazione delle persone all'uso dell'intelligenza artificiale e propone per il futuro di progettare chatbot che rifiutino di rispondere a questioni che implicano un giudizio morale oppure che accettino di rispondere fornendo però una varietà di argomentazioni e avvertimenti.