Scopri gli sconti pensati per te!

Antitrust e AI, DeepSeek, Mistral e NOVA AI dovranno informare gli utenti sul rischio di “allucinazioni”

L’Autorità Garante della Concorrenza e del Mercato ha chiuso tre istruttorie su servizi di intelligenza artificiale generativa con l’accoglimento degli impegni presentati da DeepSeek, Mistral AI e NOVA AI. I procedimenti riguardavano la trasparenza delle informazioni fornite agli utenti sul rischio delle cosiddette “allucinazioni”, cioè risposte generate dai sistemi di AI che possono contenere dati inesatti, fuorvianti o inventati.

Le tre istruttorie si sono concluse senza accertamento di infrazione, ai sensi dell’articolo 27, comma 7, del Codice del consumo. Le società coinvolte hanno assunto impegni specifici per rendere più chiari i limiti dei rispettivi servizi, sia nei siti e nelle app, sia nelle fasi che precedono la registrazione o l’acquisto.

L’intervento dell’Antitrust sui chatbot di AI

L’azione dell’AGCM si inserisce nel controllo sulle pratiche commerciali scorrette applicato ai sistemi di AI generativa, un ambito nel quale la trasparenza verso il consumatore assume un peso particolare. Il punto centrale riguarda la possibilità che un chatbot produca una risposta formalmente convincente, ma non corretta sul piano dei fatti.

Secondo l’Autorità, il consumatore deve ricevere avvisi chiari e immediati sul fatto che le risposte generate da un sistema di intelligenza artificiale possano contenere errori. Questa informazione non deve restare confinata nei termini di servizio, ma deve comparire nei punti in cui l’utente usa concretamente il servizio o decide se registrarsi, acquistare un abbonamento o proseguire nell’utilizzo.

I nuovi avvisi per gli utenti

Gli impegni accolti prevedono l’introduzione di disclaimer permanenti nelle interfacce dei servizi, in particolare sotto o vicino alla finestra della chat. Gli avvisi dovranno informare gli utenti, in lingua italiana, del rischio di risposte inesatte e della necessità di verificarne il contenuto. In alcuni casi saranno presenti anche collegamenti diretti ai termini e alle condizioni del servizio, con spiegazioni più estese sui limiti di affidabilità dei contenuti generati.

Nel caso di Mistral AI, il provvedimento prevede un pacchetto di misure destinato a rendere più trasparente l’informativa sul rischio di allucinazioni. Il servizio Le Chat dovrà mostrare un disclaimer permanente in italiano, sia prima sia dopo il login, su web e app. L’Autorità ha valutato positivamente anche la presenza di collegamenti alle condizioni di servizio e la traduzione in italiano delle informazioni dedicate al tema.

Il caso DeepSeek

Per DeepSeek, l’AGCM aveva contestato l’insufficiente informativa agli utenti italiani sulla possibilità che i modelli generassero contenuti inesatti, fuorvianti o inventati. Nei documenti dell’Autorità si legge che DeepSeek ha rappresentato il fenomeno delle allucinazioni come una criticità generale dei modelli di AI, mitigabile ma non eliminabile del tutto allo stato attuale della tecnologia.

Tra gli impegni assunti rientra l’inserimento di un avviso permanente in italiano sotto la finestra della chat, con un messaggio che invita a verificare l’accuratezza delle risposte. DeepSeek ha previsto anche interventi informativi nella fase di registrazione e misure tecniche per ridurre il rischio di allucinazioni, pur riconoscendo che il fenomeno non può essere azzerato completamente.

NOVA AI e la chiarezza sul tipo di servizio offerto

Il procedimento relativo a NOVA AI, servizio offerto da Scaleup Yazilim Hizmetleri Anonim Şirketi, ha riguardato sia il rischio di allucinazioni sia le caratteristiche effettive del servizio. L’AGCM indica NOVA AI come una “chatbox cross-platform” sviluppata a partire da altre piattaforme di intelligenza artificiale.

Gli impegni prevedono avvisi in italiano nelle interfacce web e mobile per gli utenti localizzati in Italia. L’utente dovrà essere informato del fatto che le risposte dell’AI potrebbero non essere accurate e che le informazioni ricevute devono essere verificate. L’Autorità ha inoltre valorizzato la modifica delle informazioni commerciali sul servizio, con l’obiettivo di chiarire che NOVA AI non fornisce un nuovo sistema di AI capace di elaborare i risultati degli altri modelli, ma un’interfaccia che dà accesso a più chatbot, con maggiori dettagli sui modelli disponibili e sui piani offerti.

Perché la decisione pesa sul mercato dell’AI

Il caso segna un passaggio rilevante nel rapporto tra tutela dei consumatori e servizi di intelligenza artificiale generativa. L’Antitrust interviene su un aspetto ormai centrale nell’uso quotidiano dei chatbot: la differenza tra una risposta plausibile e una risposta verificata.

La decisione non contesta in sé l’esistenza delle allucinazioni, che restano una criticità tecnica dei modelli linguistici, ma il modo in cui il rischio viene comunicato agli utenti. Il principio indicato dall’AGCM è che chi offre servizi di AI deve rendere visibili i limiti dello strumento prima e durante l’utilizzo, con avvisi comprensibili, accessibili e disponibili in italiano per il pubblico nazionale.

Aiutaci a crescere: lasciaci un like :)

Le notizie tech prima di tutti? Nella nostra newsletter!

* indicates required
Accettazione privacy

Intuit Mailchimp