Un recente articolo di Nature ha spiegato perché cedere all’allarmismo sull’Intelligenza Artificiale, potrebbe essere controproducente nel tentativo di risolvere problemi reali. Mentre le figure di spicco dell’industria tecnologica continuano a sottolineare i potenziali rischi esistenziali dell’Intelligenza Artificiale (IA), gli esperti di etica e ricerca sostengono che questa narrazione potrebbe distogliere l’attenzione dai problemi reali e immediati che l’IA sta creando nella società.
Recentemente, abbiamo visto figure di spicco come Elon Musk e Geoffrey Hinton esprimere preoccupazioni sulle profonde minacce che l’IA potrebbe rappresentare per l’umanità. Oltre 500 leader aziendali e scientifici, tra cui rappresentanti di OpenAI e Google DeepMind, hanno sottoscritto una dichiarazione secondo cui la prevenzione del rischio di estinzione umana da IA dovrebbe essere una priorità globale.
Tuttavia, molti ricercatori ed eticisti dell’IA si dicono frustrati da questo tipo di discorsi. Secondo loro, tale narrativa è problematica per almeno due motivi. Primo, l’idea di un’IA onnipotente alimenta una corsa agli armamenti tra le nazioni per sviluppare IA, a vantaggio delle aziende di tecnologia. Questo promuove gli investimenti e indebolisce gli argomenti per una regolamentazione dell’industria. In effetti, una vera e propria corsa agli armamenti per produrre tecnologie militari potenziate dall’IA è già in corso, aumentando il rischio di conflitti catastrofici.
Secondo, questa narrativa consente a un gruppo omogeneo di dirigenti aziendali e tecnologi di dominare il discorso sui rischi e la regolamentazione dell’IA, escludendo altre comunità. Le lettere scritte dai leader dell’industria tecnologica stanno “essenzialmente tracciando confini su chi conta come esperto in questa conversazione“, dice Amba Kak, direttrice dell’AI Now Institute di New York, che si concentra sulle conseguenze sociali dell’IA. Gli strumenti e i sistemi IA possono offrire molti benefici, dalla sintesi dei dati all’assistenza nelle diagnosi mediche. Tuttavia, possono anche causare danni documentati, dalla decisione pregiudizievole all’eliminazione dei posti di lavoro.
L’IA può essere sfruttata dagli stati autocratici per tracciare e opprimere le persone. Ad esempio si possono utilizzare algoritmi opachi per negare ai cittadini benefici sociali, assistenza sanitaria o asilo – applicazioni della tecnologia che rischiano di colpire in particolare le comunità marginalizzate. Uno dei maggiori timori riguarda l’uso dell’IA generativa per potenziare la disinformazione. Questa tecnologia facilita la produzione di testi, foto e video falsi più convincenti che potrebbero influenzare le elezioni o minare la capacità delle persone di fidarsi di qualsiasi informazione, destabilizzando potenzialmente le società. Se le aziende tecnologiche sono serie nell’evitare o ridurre questi rischi, devono mettere l’etica, la sicurezza e la responsabilità al centro del loro lavoro.
Le aziende tecnologiche devono formulare standard industriali per lo sviluppo responsabile dei sistemi e degli strumenti IA e sottoporre i dati a organi normativi indipendenti che siano in grado di verificarli. I governi devono stabilire quadri legali e normativi appropriati e applicare le leggi già esistenti. Questo mese, il Parlamento europeo ha approvato l’ AI Act, che regolamenta le applicazioni dell’IA nell’Unione Europea in base al loro rischio potenziale. Gli scienziati, d’altra parte, devono creare una cultura di IA responsabile dal basso. Le grandi conferenze sulla IA stanno già adottando codici etici per le presentazioni, come l’obbligo che la ricerca che coinvolge partecipanti umani sia approvata da un comitato etico o di revisione istituzionale.
Le narrazioni allarmiste sui rischi esistenziali non sono costruttive. È invece necessario un dibattito serio sui rischi reali e un’azione per contenerli. Più rapidamente l’umanità stabilirà le sue regole di interazione con l’IA, più presto potremo imparare a vivere in armonia con la tecnologia.
Leave a Reply