La forza motrice della vita sul nostro pianeta è stata per miliardi di anni l’evoluzione. Oggi, l’umanità mira a creare intelligenze artificiali che superino persino la nostra intelligenza. Ma proprio come l’evoluzione ha plasmato il nostro sviluppo, come potrebbe influenzare le nostre relazioni con le Intelligenze Artificiali ? Le IA che superano le nostre capacità in ogni dominio potrebbero esibire tratti indesiderabili. Le pressioni competitive tra le aziende e le istituzioni militari potrebbero dare origine a agenti IA che automatizzano i ruoli umani, ingannano gli altri e accumulano potere. Se tali agenti avessero un’intelligenza che supera quella degli umani, l’umanità potrebbe perdere il controllo del proprio futuro.
L’evoluzione dell’intelligenza artificiale: una minaccia alla sopravvivenza umana?
Nel contesto della selezione naturale, l’intelligenza artificiale sembra avere un vantaggio significativo sugli umani. Mentre tendiamo a pensare alla selezione naturale come un fenomeno biologico, questa governa molte dinamiche competitive. Come proposto dal biologo evoluzionista Richard Lewontin, la selezione naturale regolamenta ogni sistema dove si presentano tre condizioni: 1) una popolazione di individui con caratteristiche diverse, 2) le caratteristiche di una generazione passate alla successiva, e 3) le varianti più adatte si propagano con maggiore successo. Tutte e tre queste condizioni sono presenti nello sviluppo dei sistemi di IA. Prendiamo in considerazione gli algoritmi che suggeriscono post sui social media. Nei primi giorni dei social media, i post potrebbero essere stati mostrati in ordine cronologico. Tuttavia, le aziende hanno presto iniziato a sperimentare nuovi tipi di algoritmi in grado di catturare l’attenzione dell’utente e farlo rimanere attivo sulla piattaforma più a lungo. Ogni nuova generazione migliora la fitness degli algoritmi precedenti, aumentando la dipendenza nel tempo.
Il campanello d’allarme dei ricercatori
Recentemente, centinaia di scienziati e figure pubbliche di rilievo hanno firmato un comunicato sul rischio dell’IA redatto dal Center for AI Safety, sottolineando che la mitigazione del rischio di estinzione derivante dall’IA dovrebbe essere una priorità globale. Questa affermazione proviene da un’ampia coalizione di esperti di IA, filosofi, eticisti, giuristi, economisti, fisici e scienziati di varie discipline, evidenziando la gravità del problema. L’espansione dell’IA nella vita quotidiana, come evidenziato dal successo del chatbot ChatGPT di OpenAI, ha catalizzato un intenso dibattito pubblico. In un recente sondaggio Reuters/Ipsos pubblicato su Reuters, si è riscontrato che più di due terzi degli americani sono preoccupati per gli effetti negativi dell’IA e il 61% crede che possa minacciare la civiltà.
La necessità di regolamentazione
Di fronte a tali preoccupazioni, le proposte per migliorare il quadro di responsabilità legale, aumentare la supervisione regolamentare e garantire una maggiore supervisione umana sui sistemi automatizzati stanno guadagnando consenso. Tali misure potrebbero contribuire a mitigare i rischi associati all’IA, favorendo un ambiente in cui sia possibile sviluppare agenti IA con motivazioni intrinseche ben progettate e limiti sulle loro azioni. Mentre le preoccupazioni esistono, è importante anche considerare i benefici dell’IA. I sostenitori dell’IA, come Sebastian Thrun, professore di informatica a Stanford, sostengono che l’IA può migliorare la qualità della vita delle persone e renderle più competenti ed efficienti. Nonostante ciò, è fondamentale promuovere una maggiore consapevolezza dei rischi potenziali e attuare politiche per mitigare questi rischi, mantenendo al contempo un approccio equilibrato per non ostacolare lo sviluppo e l’innovazione.
Proposte politiche del Center for AI Safety
Per affrontare queste sfide, il Center for AI Safety ha avanzato una serie di proposte politiche volte a mitigare i rischi associati all’IA. Queste proposte puntano a stabilire un quadro legale e normativo che possa garantire la sicurezza dell’IA, evitando potenziali effetti negativi. Tra le proposte più rilevanti, il Center sostiene la necessità di una maggiore responsabilità legale per i danni causati dai sistemi di IA. Questo implicherebbe la creazione di quadri di responsabilità legale migliorati che potrebbero contribuire a rimediare ai danni legati alla disinformazione e al bias algoritmico, incentivando allo stesso tempo le aziende a prendere in considerazione la sicurezza come priorità e non come un aspetto secondario.
Inoltre, il Center propone un maggiore scrutinio normativo sullo sviluppo dei sistemi di IA, richiedendo trasparenza e regolamenti specifici per i dati di addestramento. Questo potrebbe aiutare a combattere il bias algoritmico, prevenire l’utilizzo improprio di materiali protetti da copyright e prevenire i danni derivanti dalla mancata specificazione degli obiettivi. Infine, il Center sottolinea l’importanza della supervisione umana sui sistemi automatizzati. L’intervento umano nel processo decisionale delle macchine può contribuire a mitigare le preoccupazioni legate al bias algoritmico e alla diffusione di informazioni false o fuorvianti.
Mentre ci avventuriamo in un futuro sempre più dominato dall’IA, è fondamentale equilibrare i benefici potenziali con la necessità di mitigare i rischi. La sfida è garantire che l’evoluzione dell’IA promuova il benessere umano, anziché minacciarlo.
Riferimenti:
- Center for AI Safety – Three policy proposals for AI safety
- Reuters – AI threatens humanity’s future, 61% of Americans say: Reuters/Ipsos
- OpenAI – ChatGPT
- Microsoft – AI
- Google – AI
- Timeful
- Autonomy: A Missing Value in AI Alignment
- Evolution and AI: Avoiding Unintended Consequences
- Three Policy Proposals for AI Safety
Leave a Reply