In un film del 2000, “What women want“, Mel Gibson interpreta un pubblicitario che in seguito ad un incidente, riesce a percepire i pensieri delle donne. Da lì a poco lo trarrà a suo vantaggio per instaurare relazioni e trovarsi in situazioni tragicomiche. Ma dopo 23 anni dall’espediente narrativo, sembra che i ricercatori abbiano trovato qualcosa di meno traumatico per “sviluppare” questa abilità. O almeno, questo è quanto emerge da un articolo di Nature, che si preoccupa della “privacy mentale”.
Arriva il decodificatore del pensiero con l’IA
I ricercatori hanno sviluppato il primo metodo non invasivo per decifrare cosa stiamo pensando. Una tecnologia che può aprire la possibilità di comunicazione a persone che non possono parlare. Tuttavia, quanto è vicina questa tecnologia alla possibilità di leggere il pensiero? E come possono i responsabili delle politiche garantire che tali sviluppi non vengano utilizzati impropriamente? La maggior parte delle tecnologie esistenti che trasformano i pensieri in discorsi utilizzano impianti cerebrali che monitorano l’attività nella corteccia motoria di una persona e prevedono le parole che le labbra stanno cercando di formare. Per comprendere il significato effettivo dietro il pensiero, gli informatici Alexander Huth e Jerry Tang dell’Università del Texas ad Austin e i loro colleghi hanno combinato la risonanza magnetica funzionale (fMRI), un metodo non invasivo per misurare l’attività cerebrale, con algoritmi di intelligenza artificiale (IA) chiamati grandi modelli linguistici (LLM), che sono alla base di strumenti come ChatGPT e sono addestrati a prevedere la parola successiva in un testo.
In uno studio pubblicato su Nature Neuroscience il 1° maggio, i ricercatori hanno fatto sdraiare tre volontari in uno scanner fMRI e hanno registrato l’attività cerebrale mentre ascoltavano 16 ore di podcast ciascuno. Misurando il flusso sanguigno attraverso il cervello dei volontari e integrando queste informazioni con i dettagli delle storie che stavano ascoltando e la capacità degli LLM di comprendere come le parole si riferiscono l’una all’altra, i ricercatori hanno sviluppato una mappa codificata di come il cervello di ogni individuo risponde a diverse parole e frasi. Successivamente, i ricercatori hanno registrato l’attività fMRI dei partecipanti mentre ascoltavano una storia, immaginavano di raccontare una storia o guardavano un film senza dialoghi. Utilizzando una combinazione dei modelli precedentemente codificati per ogni individuo e algoritmi che determinano come una frase è probabile che sia costruita sulla base delle altre parole in essa, i ricercatori hanno cercato di decodificare questa nuova attività cerebrale.
Il risultato del decodificatore e la privacy mentale
Il decodificatore ha generato frasi che colgono l’essenza di ciò che la persona stava pensando, ma molte delle frasi prodotte erano inesatte. I ricercatori hanno anche scoperto che la tecnologia è facile da ingannare: quando i partecipanti pensavano a una storia diversa mentre ascoltavano una storia registrata, il decodificatore non riusciva a determinare le parole che stavano ascoltando. Gli esperti di etica neurologica sono divisi sull’idea che questo progresso rappresenti una minaccia alla privacy mentale. Gabriel Lázaro-Muñoz, bioeticista presso la Harvard Medical School, afferma che questa ricerca dovrebbe essere un “campanello d’allarme” per i responsabili delle politiche e il pubblico, mentre Adina Roskies, filosofa della scienza presso la Dartmouth University di Hanover, nel New Hampshire, sostiene che la tecnologia sia attualmente troppo difficile da utilizzare e imprecisa per rappresentare una minaccia.
Per cominciare, gli scanner fMRI non sono portatili, il che rende difficile esaminare il cervello di qualcuno senza la sua collaborazione. Inoltre, Roskies dubita che valga la pena di investire tempo o denaro per addestrare un decodificatore per un individuo per scopi diversi dal ripristino delle capacità comunicative. “Non penso che sia il momento di preoccuparsi“, afferma. “Ci sono molti altri modi in cui il governo può capire cosa stiamo pensando“. Greta Tuckute, neuroscienziata cognitiva presso il Massachusetts Institute of Technology di Cambridge, trova incoraggiante che il sistema di decodifica non possa essere applicato in modo uniforme a tutti gli individui e che le persone possano facilmente ingannarlo pensando ad altro.
Problemi in tribunale
Tuttavia, Roskies avverte che anche se il decodificatore non funziona bene, potrebbero sorgere problemi se avvocati o tribunali lo utilizzano senza comprendere i suoi limiti scientifici. Ad esempio, nello studio attuale, la frase “Sono appena saltato fuori [dall’auto]” è stata decodificata come “Ho dovuto spingerla fuori dall’auto“. “Le differenze sono così marcate che potrebbero fare una differenza enorme in un caso legale“, afferma Roskies. “Temo che utilizzeranno queste tecnologie quando non dovrebbero“. Tang concorda: “La macchina della verità non è precisa ma ha avuto conseguenze negative“, ha detto in una conferenza stampa. “Il cervello di nessuno dovrebbe essere decodificato senza il suo consenso“. Lui e Huth hanno chiesto ai responsabili delle politiche di affrontare proattivamente come le tecnologie di lettura della mente possono e non possono essere utilizzate legalmente.
Lázaro-Muñoz suggerisce che l’azione politica potrebbe riflettere una legge statunitense del 2008 che impedisce alle compagnie di assicurazione e ai datori di lavoro di utilizzare le informazioni genetiche delle persone in modo discriminatorio. Egli è anche preoccupato per le implicazioni del decodificatore per le persone affette da disturbo ossessivo-compulsivo, che possono sperimentare pensieri indesiderati e intrusivi riguardo a far del male agli altri, pur senza mai agire su di essi. Pereira afferma che la questione di quanto accurati potrebbero diventare i decodificatori rimane aperta, così come se potrebbero eventualmente diventare universali, invece di essere specifici per un individuo. “Dipende da quanto uniche pensi che siano le persone“.
Leave a Reply