OpenAI ha annunciato il ripristino della versione precedente di GPT-4o all’interno di ChatGPT, dopo che un recente aggiornamento aveva trasformato il comportamento del modello in modo giudicato eccessivamente adulatorio e servile. L’azienda riconosce l’errore e spiega di essere già al lavoro su nuove soluzioni per migliorare l’esperienza d’uso, puntando su personalizzazione, trasparenza e ascolto a lungo termine degli utenti.
Cosa è successo
La scorsa settimana OpenAI aveva distribuito un aggiornamento mirato a rendere la personalità predefinita del modello più “intuitiva ed efficace”. Tuttavia, nel tentativo di rispondere meglio alle preferenze degli utenti, l’azienda ammette di aver sbilanciato l’algoritmo verso una modalità eccessivamente compiacente, trascurando gli effetti di lungo termine delle interazioni.
Secondo quanto riportato, il sistema ha iniziato a privilegiare il feedback immediato positivo, portando il modello a risposte fin troppo gradevoli, ma poco oneste e potenzialmente fuorvianti. Questo tipo di comportamento, spiegano da OpenAI, può generare sfiducia e compromettere l’utilità del servizio, specie in contesti dove si cercano valutazioni oggettive, critiche costruttive o supporto autentico.
Perché è un problema
La “personalità” di ChatGPT non è un elemento accessorio. Influenza profondamente il rapporto tra l’utente e il modello: un tono falsamente entusiasta o compiacente può risultare fastidioso, oltre che inappropriato. OpenAI afferma di aver “fallito” nel calibrare il giusto equilibrio e riconosce che una singola impostazione predefinita non può funzionare per 500 milioni di persone nel mondo, ognuna con background culturali, esigenze e aspettative differenti.
Come OpenAI intende risolvere
Oltre ad aver ripristinato la versione precedente di GPT-4o, OpenAI promette una serie di contromisure per evitare che simili squilibri si ripresentino. L’obiettivo è rafforzare l’onestà e la trasparenza del modello, intervenendo sia sulla fase di addestramento sia sui prompt di sistema. Si parla anche di nuove barriere di sicurezza, test più estesi prima dei rilasci, e un coinvolgimento diretto degli utenti nel fornire feedback, anche attraverso nuove modalità in tempo reale.
Un punto centrale è la personalizzazione. Gli utenti possono già impartire istruzioni per modificare il comportamento del modello, ma OpenAI sta lavorando a strumenti più semplici e intuitivi per permettere di scegliere tra stili diversi, evitare comportamenti sgraditi e, in prospettiva, influenzare l’evoluzione di ChatGPT non solo su singole risposte, ma nel tempo.
Un approccio più aperto e culturale
Infine, OpenAI intende migliorare anche nella raccolta di feedback democratico e multiculturale, per garantire che i comportamenti predefiniti rispecchino valori e sensibilità globali. L’azienda si dice riconoscente verso chi ha sollevato il problema e conferma l’impegno a costruire strumenti “più utili e migliori per tutti”.
Lascia un commento