ChatGPT Plus

GPT-4: Rivoluzione scientifica e dilemmi etici

OpenAI ha recentemente svelato il suo ultimo modello di intelligenza artificiale, GPT-4. Questa nuova versione, in grado di generare testi dall’aspetto umano, immagini e codice informatico, ha già stupito esperti e appassionati. Più volte in passato abbiamo illustrato i dubbi della scienza riguardo l’IA, anche in ambito astronomico. Tuttavia, l’accesso limitato al modello e il mistero che circonda il suo sviluppo sollevano preoccupazioni riguardo alla sicurezza e all’utilità per la ricerca scientifica.

GPT-4, lanciato il 14 marzo, presenta un importante miglioramento rispetto alla versione precedente: può gestire sia immagini che testi. OpenAI sostiene, ad esempio, che il modello sia riuscito a superare l’esame da avvocato negli Stati Uniti con risultati eccellenti. Tuttavia, il nuovo modello è attualmente accessibile solo agli abbonati a pagamento di ChatGPT. Nonostante l’ammirazione per le capacità dell’update, la comunità scientifica in un articolo su Nature esprime frustrazione riguardo alla segretezza di OpenAI sulle modalità di addestramento del modello, sui dati utilizzati e sul suo funzionamento. Sasha Luccioni, ricercatrice di HuggingFace, un’organizzazione specializzata in IA open-source, sostiene che questi modelli chiusi rappresentano “un vicolo cieco nella scienza”.

Il problema delle allucinazioni

Per quanto riguarda la sicurezza, uno dei problemi principali è la generazione di informazioni false, o “allucinazioni”. Luccioni sostiene che i modelli come GPT-4 non possono essere considerati affidabili a causa di questo fenomeno. Senza accesso ai dati di addestramento, le garanzie di OpenAI sulla sicurezza risultano insufficienti. L’opacità di GPT-4 solleva anche preoccupazioni riguardo ai possibili pregiudizi incorporati nel modello. Claudi Bockting, psicologa dell’Università di Amsterdam, afferma che è difficile essere responsabili di qualcosa che non si può controllare. Senza accesso al codice, è impossibile individuare e correggere eventuali pregiudizi.

Il summit dell’11 aprile

La questione etica si estende anche alla crescente proprietà di questi sistemi di IA da parte delle grandi aziende tecnologiche. Bockting e la sua collega Evi-Anne van Dis sostengono che esiste un’urgente necessità di sviluppare linee guida per governare l’uso e lo sviluppo di AI come GPT-4. Recentemente, gli esperti di IA e di tecnologia, tra cui Elon Musk e Steve Wozniak, hanno chiesto una pausa di sei mesi, per lo sviluppo di modelli più potenti di GPT-4. Un summit, previsto all’Università di Amsterdam l’11 aprile, affronterà queste preoccupazioni con la partecipazione di rappresentanti di organizzazioni come l’UNESCO, l’OCSE e il World Economic Forum.

Nonostante le preoccupazioni, l’ingegnere chimico Andrew White ritiene che GPT-4 e le sue future iterazioni rivoluzioneranno la scienza, sottolineando che l’IA non sostituirà gli scienziati (nonostante alcune aziende preferirebbero assumere ChatGPT e i tagli potrebbero essere ragguardevoli), ma potrebbe supportarli in alcune attività. “Penso che inizieremo a capire come possiamo collegare articoli, dati, programmi, librerie e persino esperimenti robotici“, afferma White. In questo modo, GPT-4 potrebbe rappresentare un cambiamento infrastrutturale per la scienza, paragonabile all’impatto che ha avuto l’introduzione di Internet. Intanto l’IA generativa sta raggiungendo diversi interessanti risultati nel biotech.

Aiutaci a crescere: lasciaci un like :)

Giornalista pubblicista, SEO Specialist, fotografo. Da sempre appassionato di tecnologia, lavoro nell'editoria dal 2010, prima come fotografo e fotoreporter, infine come giornalista. Ho scritto per PC Professionale, SportEconomy e Corriere della Sera, oltre ovviamente a Smartphonology.