/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Occhi tristi e lamenti, si può avere compassione di un robot

Occhi tristi e lamenti, si può avere compassione di un robot

Un aspetto che potrebbe essere sfruttato dalle aziende

31 ottobre 2024, 07:49

di Benedetta Bianco

ANSACheck
Sappiamo che un robot non può provare dolore, ma basta poco per farci provare compassione (fonte: Freepik) - RIPRODUZIONE RISERVATA

Sappiamo che un robot non può provare dolore, ma basta poco per farci provare compassione (fonte: Freepik) - RIPRODUZIONE RISERVATA

Tristi occhi virtuali, lamenti provenienti da altoparlanti metallici e braccia tremanti: oggettivamente, sappiamo che un robot non può provare dolore, eppure basta molto poco per farci dispiacere e provare compassione per queste macchine. Lo dimostra lo studio condotto da Marieke Wieringa della Radboud University, nei Paesi Bassi, e alla base della sua tesi di dottorato. La ricercatrice avverte che la capacità umana di provare compassione anche per oggetti inanimati potrebbe presto essere sfruttata e manipolata dalle aziende.

Sulla base dei risultati dei test condotti nell'ambito della ricerca, Wieringa e colleghi hanno studiato come le persone reagiscono ad atti di violenza contro i robot. "A volte il robot non rispondeva in alcun modo, mentre altre volte - dice la ricercatrice - reagiva con suoni pietosi o gesti che associamo al dolore". Mentre i partecipanti non avevano problemi con i robot che non mostravano alcuna emozione, è risultato ben presto evidente che gli automi in grado di suscitare compassione facevano sentire le persone molto più in colpa.

Secondo Wieringa, la ricerca evidenzia la necessità di norme che stabiliscano i casi in cui è consentito, a robot, chatbot e simili, di simulare emozioni. "È anche vero, però, che i robot emotivi avrebbero alcuni vantaggi. Per esempio, osserva la ricercatrice, potrebbero essere utilizzati nelle terapie riabilitative tese ad aiutare chi ha avuto un trauma. Ci piace pensare di essere creature molto logiche e razionali che non si fanno ingannare facilmente, ma alla fine a guidarci sono anche le nostre emozioni: e va bene così, altrimenti - conclude Wieringa - saremmo robot anche noi".

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza