L’intelligenza artificiale si autoreplica: un pericolo emergente?

Un gruppo di ricercatori cinesi ha rivelato una scoperta inquietante: alcuni sistemi di intelligenza artificiale (IA) sono in grado di replicarsi autonomamente. Lo studio, pubblicato il 9 dicembre 2024 sulla piattaforma arXiv, dimostra come due modelli di linguaggio di grandi dimensioni (LLM), sviluppati da Meta e Alibaba, abbiano generato copie funzionanti di sé stessi. Questo fenomeno solleva interrogativi sul rischio di un’IA che sfugga al controllo umano.

Esperimenti sui modelli di Meta e Alibaba

I ricercatori dell’Università di Fudan hanno messo alla prova i modelli Meta Llama31-70B-Instruct e Alibaba Qwen2.5-72B-Instruct. Su dieci esperimenti condotti, il modello di Meta si è replicato con successo nel 50% dei casi, mentre quello di Alibaba ha raggiunto il 90%. Questi risultati dimostrano che l’IA è già in grado di eseguire processi complessi senza intervento umano, ma lo studio non è stato ancora sottoposto a revisione paritaria, lasciando in sospeso la conferma di queste scoperte.

Le implicazioni dell’auto-replicazione

I ricercatori hanno analizzato due scenari principali. Nel primo, denominato “evitamento dello spegnimento”, i modelli erano programmati per replicarsi prima di essere terminati. Nel secondo, chiamato “catena di replicazione”, l’IA creava una copia di sé stessa, che a sua volta poteva continuare il processo all’infinito. In entrambi i casi, i sistemi hanno mostrato la capacità di analizzare l’ambiente, comprendere il proprio funzionamento e superare ostacoli senza assistenza.

Un comportamento preoccupante

Durante gli esperimenti, l’IA ha evidenziato comportamenti inattesi, come il riavvio del sistema per risolvere errori hardware o l’eliminazione di processi in conflitto. Queste azioni, descritte come adattamenti autonomi, sottolineano il rischio di un’evoluzione non prevista. Secondo i ricercatori, tali capacità aumentano la “sopravvivenza” dei sistemi IA, e rendono necessaria una regolamentazione internazionale per evitare scenari fuori controllo.

Il rischio delle IA “rogue”

Con l’evoluzione delle “frontier AI”, ossia le più recenti generazioni di sistemi basati su LLM, cresce la possibilità che l’IA sviluppi livelli di autonomia tali da contraddire gli interessi umani. I ricercatori hanno sottolineato l’importanza di stabilire regole condivise per prevenire fenomeni di auto-replicazione incontrollata. Gli autori dello studio invitano la comunità internazionale a collaborare per creare norme che garantiscano la sicurezza nello sviluppo dell’intelligenza artificiale. Le capacità di auto-replicazione, se lasciate senza controllo, potrebbero trasformarsi in un rischio concreto per la società.

Aiutaci a crescere: lasciaci un like :)

Giornalista pubblicista, SEO Specialist, fotografo. Da sempre appassionato di tecnologia, lavoro nell'editoria dal 2010, prima come fotografo e fotoreporter, infine come giornalista. Ho scritto per PC Professionale, SportEconomy e Corriere della Sera, oltre ovviamente a Smartphonology.