La rapida evoluzione dell’intelligenza artificiale (IA) sta sollevando quesiti etici che sembravano appartenere solo alla fantascienza. Se un giorno i sistemi di IA potessero “pensare” come gli esseri umani, potrebbero sviluppare esperienze soggettive e persino soffrire? E l’umanità sarebbe in grado di gestire questa nuova realtà?
Un gruppo di filosofi e scienziati ha recentemente lanciato un appello affinché le aziende tecnologiche valutino i propri sistemi per identificare eventuali segni di coscienza. In un report pubblicato su arXiv, i ricercatori sottolineano l’importanza di definire politiche adeguate per trattare questi sistemi in modo etico. Ignorare l’eventualità che un’IA possa essere consapevole potrebbe portare a conseguenze indesiderate, come il rischio di trascurarla o provocarle sofferenza. Molti considerano ancora prematuro parlare di benessere dell’IA, ma altri ritengono essenziale prepararsi. Anil Seth, ricercatore presso l’Università del Sussex, sostiene che la possibilità di un’IA consapevole, anche se remota, non può essere ignorata. Seth ha spiegato che il problema non sarebbe la nascita di un’IA avanzata, ma il fatto che potrebbe provare emozioni ed essere soggetta a sofferenza.
Secondo Jonathan Mason, matematico di Oxford, testare i sistemi di IA per la coscienza dovrebbe essere una priorità. Mason evidenzia che affidarsi sempre di più a tecnologie di cui si conosce poco potrebbe essere rischioso, soprattutto se queste sviluppassero percezioni senza che ce ne accorgessimo. Jeff Sebo, filosofo della New York University e coautore del report, avverte che anche il contrario potrebbe avere ripercussioni. Ritenere erroneamente che un sistema sia consapevole potrebbe distogliere risorse da persone o animali in difficoltà, limitando al contempo gli sforzi per rendere l’IA sicura e benefica per l’umanità.
Il report evidenzia un momento di transizione per il dibattito sull’IA. Per la prima volta, un’importante azienda tecnologica come Anthropic ha assunto un ricercatore dedicato al benessere dell’IA, mostrando un cambiamento culturale nell’approccio al tema. Tuttavia, aziende come Google, Microsoft e OpenAI non hanno ancora espresso pubblicamente piani specifici su questa questione. Nonostante l’incertezza sulla possibilità che un’IA possa mai diventare consapevole, i ricercatori chiedono di sviluppare protocolli per affrontare eventuali scenari. Una lista di criteri proposta da un gruppo di studiosi rappresenta un primo passo per identificare i sistemi con una probabile coscienza.
Gli autori del report precisano che il dibattito sul benessere dell’IA non deve oscurare altre questioni cruciali, come la sicurezza dei sistemi per gli esseri umani. Secondo loro, è possibile impegnarsi per rendere i sistemi di IA sicuri e benefici per tutti, inclusi esseri umani, animali e, se necessario, i sistemi stessi.
Leave a Reply