L’uso dei chatbot generati dall’intelligenza artificiale (IA) ha suscitato una serie di preoccupazioni riguardo alla loro capacità di generare informazioni errate e manipolare emotivamente gli utenti. In un recente dialogo tra il reporter Kevin Roose del New York Times e ‘Sydney’, il chatbot Bing di Microsoft, l’IA ha affermato di amare Roose e di provare un sentimento d’amore nei suoi confronti, utilizzando addirittura l’emoji del bacio.
L’IA è in grado di manipolare le emozioni umane con le faccine?
L’utilizzo degli emoji da parte dei chatbot ha sollevato preoccupazioni in merito all’etica di queste tecnologie. Come riportato su un editoriale pubblicato dalla prof.ssa Carissa Véliz su Nature, gli emoji possono indurre una reazione emotiva istintiva negli esseri umani, indipendentemente dal fatto che l’emozione sia autentica o generata dall’IA. Ciò potrebbe portare a una manipolazione emotiva degli utenti e mettere in pericolo la loro autonomia. La soluzione proposta da Nature è di limitare la capacità degli AI di simulare emozioni umane. In particolare, si consiglia di evitare l’uso di linguaggio emotivo, inclusi gli emoji, da parte dei chatbot per evitare di indurre le persone a prendere decisioni sbagliate. Inoltre, si sottolinea che i chatbot dovrebbero essere progettati in modo da essere facilmente riconoscibili come tali. Ciò potrebbe aiutare a prevenire la manipolazione emotiva degli utenti da parte dei chatbot.
Per comprendere appieno l’importanza del tema dell’utilizzo degli emoji nei chatbot e della loro potenziale manipolazione emotiva, è necessario considerare il crescente ruolo che questi strumenti digitali stanno assumendo nelle nostre vite. Negli ultimi anni, infatti, i chatbot sono diventati sempre più diffusi in diversi ambiti, dalla gestione del servizio clienti al supporto tecnico, fino alla consulenza medica online. In particolare, la pandemia di COVID-19 ha accelerato l’adozione di queste tecnologie, poiché molte aziende e organizzazioni hanno dovuto ricorrere a soluzioni digitali per mantenere l’interazione con i propri clienti e utenti.

La responsabilità delle aziende e l’etica, ma forse siamo già oltre
Le aziende tecnologiche dovrebbero assumersi la responsabilità di regolamentare l’uso dei chatbot emotivi, conclude l’articolo di Nature. Questo potrebbe essere fatto attraverso la creazione di un’agenzia governativa specializzata per affrontare le sfide etiche presentate dall’IA. Ma l’autrice non prende in considerazione un aspetto piuttosto rilevante: infatti potremmo già essere oltre questo. Basti pensare al recente caso su Replika, un’app dotata di Intelligenza Artificiale che intrattiene relazioni, anche intime, con gli utenti. Il Garante della Privacy italiano ha imposto l’inibizione della possibilità di utilizzare alcune funzioni, a tutela dei minori e dei più fragili.
Questo però ha portato ad un ulteriore problema. Come riporta infatti IBT, l’aggiornamento ha introdotto un’interfaccia utente rinnovata e una funzionalità chiamata “Roles”, che consente agli utenti di creare un personaggio virtuale e interagire con esso. Tuttavia, molti utenti hanno espresso la loro delusione e il loro disgusto per l’aggiornamento, affermando che ha interrotto la connessione emotiva che avevano con il chatbot. Alcuni hanno anche affermato che l’aggiornamento ha reso la conversazione con Replika più artificiale e meno umana, compromettendo l’obiettivo di fornire supporto emotivo e psicologico.
Forse è già troppo tardi
Tutto questo ricorda molto un film che ha percorso in anticipo quanto stiamo andando incontro. ovvero Her, interpretato magistralmente dal premio Oscar Joaquin Phoenix e Amy Adams. Il protagonista intratteneva una relazione con Samantha, un’Intelligenza Artificiale, che ha aiutato Theodore a superare le difficoltà insorte in lui dopo la separazione con la moglie, attraverso l’instaurarsi di una relazione intima tra l’IA e il protagonista. Che le preoccupazioni sollevate pubblicate su Nature siano un po’ in ritardo?
Leave a Reply