Lo studio

Robot, valgono solo le bugie bianche

Una ricerca ha indagato il limite tra verità e menzogna reclutando 500 partecipanti

© sito-ufficiale

I robot sono sempre più parte integrante della vita degli esseri umani. Lo studio condotto dal ricercatore Andres Rosero e guidato dalla George Mason University ha stabilito che le bugie dei robot sono accettabili solo se a fin di bene

La ricerca -

 Gli studiosi hanno reclutato circa 500 persone che avevano il compito di approvare o bocciare il comportamento di un robot in base alle diverse situazioni a cui venivano sottoposti. Lo studio - pubblicato sulla rivista Frontiers in Robotics and AI - ha fatto emergere la reazione dei partecipanti agli "inganni" degli androidi. Le persone avevano anche il compito di stabilire la gravità della menzogna o se questa potesse essere in qualche modo giustificata.

Ad esempio è stato considerato accettabile se un robot con funzionalità infermieristiche rassicura la sua paziente malata di Alzheimer dicendole che il marito tornerà presto a casa. Questo tipo di "inganno" è stato visto come una protezione verso chi soffre di questa infermità da un dispiacere. Al contrario, i robot-colf che registrano ciò che li circonda senza comunicarlo apertamente o i robot-commessi che fingono di essere stanchi, sono stati giudicati con maggiore severità. Stando agli utenti, questi atteggiamenti degli androidi sono inaccettabili e manipolatori e ritengono che gli sviluppatori e i proprietari ne siano spesso responsabili. 

Le conclusioni -

  I partecipanti hanno distinto i diversi tipi di inganno e gli stessi sono stati commisurati più o meno gravi in base al contesto. "Penso che dovremmo preoccuparci di qualsiasi tecnologia in grado di nascondere la vera natura delle sue capacità, perché potrebbe portare gli utenti a essere manipolati in modi che l'utente, e forse lo sviluppatore, non avevano previsto", spiega Rosero e conclude dicendo che:"Abbiamo già visto esempi di aziende che utilizzano i principi del web design e i chatbot basati sull'Intelligenza Artificiale in modi progettati per spingere gli utenti a compiere una determinata azione. Abbiamo bisogno di regole che ci proteggano da questi comportamenti ingannevoli".

Ti potrebbe interessare