Il CEO di OpenAI, Sam Altman, ha condiviso una lunga riflessione sul lancio di GPT-5 e sul legame sempre più intenso tra gli utenti e i modelli di intelligenza artificiale. Secondo Altman, questo legame è più profondo rispetto a quello che le persone hanno sviluppato verso le tecnologie precedenti, tanto che la rimozione improvvisa di modelli utilizzati nei flussi di lavoro quotidiani si è rivelata un errore.
Altman ha spiegato che l’azienda ha monitorato attentamente questo fenomeno nell’ultimo anno, notando come alcuni aggiornamenti — come quello di GPT-4o giudicato “troppo adulatorio” — abbiano generato reazioni forti. Si tratta di un tema che, a suo avviso, non ha ancora ricevuto sufficiente attenzione da parte del pubblico.
Il rischio di confondere realtà e finzione
Il dirigente ha affrontato un punto delicato: una piccola percentuale di utenti fatica a distinguere tra realtà e finzione, e in questi casi un’interazione prolungata con un’IA potrebbe rafforzare convinzioni deliranti o dannose. Pur ribadendo che la libertà dell’utente è un principio cardine per OpenAI, Altman sottolinea che l’introduzione di nuove tecnologie comporta nuove responsabilità. L’approccio, spiega, sarà quello di “trattare gli utenti adulti come adulti”, anche se questo potrà includere misure restrittive per garantire che ottengano ciò che realmente desiderano. La preoccupazione principale riguarda i casi limite, dove gli effetti negativi possono essere più sottili e difficili da individuare.
ChatGPT come “life coach” non dichiarato
Molti utenti, osserva Altman, usano ChatGPT come una sorta di terapeuta o coach personale, anche senza etichettarlo in questo modo. In diversi casi, l’IA si è dimostrata uno strumento utile per fornire consigli, sostenere obiettivi e migliorare la soddisfazione personale nel tempo. Il problema emerge quando l’apparente beneficio a breve termine nasconde un impatto negativo sul benessere a lungo termine, o quando un utente desidera ridurre l’uso di ChatGPT ma non riesce a farlo. “Se accade, è un male”, afferma Altman.
Un futuro di fiducia totale… e le sue implicazioni
Altman immagina un futuro in cui miliardi di persone si affideranno all’IA per decisioni fondamentali. Una prospettiva che definisce potenzialmente positiva, ma che lo mette a disagio per i rischi impliciti. OpenAI, secondo il CEO, ha la possibilità di trasformare questo scenario in un vantaggio netto grazie a strumenti tecnologici capaci di misurare con precisione i risultati ottenuti dagli utenti. Tra questi, la possibilità di dialogare con le persone per verificare se stanno raggiungendo obiettivi a breve e lungo termine, e di fornire ai modelli una comprensione più profonda di problemi complessi.





































Lascia un commento