La decisione di OpenAI di opporsi all’ordine di un giudice federale statunitense per la consegna di 20 milioni di conversazioni anonimizzate di ChatGPT apre un fronte critico che intreccia privacy degli utenti, responsabilità dei fornitori di intelligenza artificiale e accuse di violazione del copyright. Il caso nasce dalla causa intentata dal New York Times e da altre testate, che ritengono necessari i log per verificare eventuali riproduzioni non autorizzate dei loro contenuti all’interno del chatbot.
Secondo quanto riportato da Reuters, OpenAI sostiene che l’ordine rischierebbe di esporre conversazioni sensibili e private, con un impatto sproporzionato rispetto alle accuse avanzate. L’azienda afferma che il 99,99% delle chat richieste non avrebbe alcuna pertinenza con il contenzioso sul copyright. Il giudice ha tuttavia stabilito che la de-identificazione prevista possa tutelare adeguatamente gli utenti.
In Italia, il commento più articolato arriva da Cristiano Voschion, Country Manager di Check Point Software Technologies, che invita a guardare alla vicenda come a un segnale di fragilità strutturale nei modelli di gestione dei log e dei dati applicati all’AI.
Voschion osserva che la protezione non dipende solo dalla cifratura, ma anche dai criteri di conservazione, dalle responsabilità definite dal fornitore e dal quadro legale entro cui tali dati possono diventare accessibili. Sottolinea inoltre che ogni organizzazione che adotta piattaforme di AI deve valutare con attenzione l’intero ciclo di vita delle conversazioni: chi può accedervi, in quali circostanze possano essere divulgate e come il fornitore affronti l’anonimizzazione e il rischio legale.
Dal punto di vista operativo, Check Point indica la necessità di una strategia multilivello che includa la protezione degli endpoint, regole chiare sulla conservazione e cancellazione dei log, valutazioni periodiche dei fornitori e monitoraggio dell’evoluzione normativa. Una cornice indispensabile man mano che l’AI entra nei flussi aziendali con un ruolo sempre più incisivo.
Sul piano internazionale, il confronto resta acceso. OpenAI sostiene che fornire milioni di log metterebbe a rischio la riservatezza degli utenti, mentre il New York Times replica che l’ordine riguarda solo un campione anonimizzato e protetto da un ordine legale. La vicenda evidenzia una contraddizione centrale: per verificare un’ipotetica violazione del copyright, una parte ritiene accettabile esporre gli utenti a un possibile rischio di violazione della privacy. Un cortocircuito che rende evidente quanto le attuali dispute sull’AI tocchino dimensioni sensibili e tra loro conflittuali, spesso senza strumenti normativi pienamente adeguati.
Il caso rientra tra le numerose azioni legali avviate contro aziende che sviluppano modelli di AI generativa e si inserisce in un contesto più ampio di richieste di trasparenza, accountability e garanzie sulle modalità di raccolta e utilizzo dei dati.




































Lascia un commento