chat control

Che cos’è “Chat Control” e perché se ne sta parlando

“Chat Control” è il soprannome critico della proposta di Regolamento dell’UE per prevenire e combattere l’abuso sessuale sui minori online. L’iniziativa mira a creare un quadro unico e vincolante per tutti i Paesi membri, stabilendo obblighi di rilevazione, segnalazione e rimozione dei contenuti di abuso sessuale su minori (CSAM), oltre a regole per contrastare il grooming. A differenza della normativa temporanea oggi in vigore, che consente ai fornitori di agire su base volontaria, la proposta vuole imporre regole stabili e centralizzate, con la creazione di un EU Centre on Child Sexual Abuse che gestirebbe gli indicatori tecnici, riceverebbe i report e li inoltrerebbe alle autorità nazionali.

Se ne parla con particolare intensità proprio in questi giorni perché, sotto la presidenza danese, il dossier è tornato all’ordine del giorno del Consiglio dell’Unione Europea. Le riunioni di settembre 2025 hanno messo pressione sugli Stati membri per definire una posizione comune entro l’autunno. Le prossime scadenze politiche, con possibili voti a ottobre, hanno rilanciato il dibattito pubblico e mediatico sul bilanciamento tra tutela dei minori e salvaguardia della privacy.

Chi l’ha proposta e quando

La proposta è stata avanzata dalla Commissione europea ed è stata presentata ufficialmente l’11 maggio 2022 da Ylva Johansson, Commissaria per gli Affari Interni. L’obiettivo dichiarato era sostituire l’attuale regime transitorio, introdotto nel 2021, che permetteva alle piattaforme di rilevare CSAM su base volontaria. Johansson sostenne che senza una cornice vincolante a livello europeo, il contrasto al fenomeno restava disomogeneo e inefficace.

European Conference |

La Commissione ha argomentato che i soli sforzi volontari non bastano a fronte dell’enorme quantità di materiale che circola online e della complessità delle indagini transfrontaliere. La proposta è stata quindi presentata come necessaria per garantire maggiore efficacia e uniformità nelle misure, riducendo le differenze tra Stati e dando alle autorità strumenti più rapidi e centralizzati.

Cosa prevede in concreto

Il regolamento introduce l’obbligo per i fornitori di servizi digitali di condurre valutazioni del rischio sulle loro piattaforme. In base a queste valutazioni, i provider devono implementare misure di mitigazione adeguate: possono variare dal potenziamento dei sistemi di moderazione alla verifica dell’età degli utenti. Laddove tali misure risultino insufficienti, le autorità competenti possono emettere un detection order che obbliga i provider a individuare specifici contenuti illegali.

Oltre ai detection order, la proposta prevede anche ordini di rimozione rapida per contenuti ospitati su server europei e ordini di blocco per contenuti accessibili dall’UE ma ospitati altrove. A supporto di tutto questo, l’EU Centre avrebbe il compito di validare gli strumenti tecnologici usati, gestire i database di indicatori e ridurre i falsi positivi prima che i casi arrivino alle forze dell’ordine.

Come funzionerebbero i detection order

I detection order sono lo strumento più invasivo e rappresentano il cuore delle controversie. Vengono emessi da un’autorità giudiziaria o indipendente solo quando le misure preventive adottate dal provider non risultano sufficienti. Devono essere mirati e specificare con precisione quali contenuti cercare, in quale periodo di tempo e su quale servizio.

In pratica, i provider sarebbero obbligati a integrare sistemi di rilevazione che confrontano immagini, video e testi con indicatori forniti dall’EU Centre. Le segnalazioni generate sarebbero inoltrate allo stesso Centro, che farebbe da filtro per ridurre gli errori, prima di passarle alle autorità nazionali. Questo processo, sebbene regolato, solleva timori di sorveglianza massiva e di compromissione della fiducia degli utenti nei servizi digitali.

Crittografia end-to-end e scansione lato client

Il nodo più discusso è quello della crittografia end-to-end, oggi usata da servizi come WhatsApp o Signal. La Commissione ha dichiarato di non voler vietare né indebolire questa forma di protezione, ma la proposta prevede possibilità di analisi dei contenuti “sul dispositivo” prima che vengano cifrati, un approccio noto come scansione lato client. Questo garantirebbe che i messaggi restino cifrati durante il trasporto, ma introdurrebbe un controllo automatico all’origine.

Molti critici sostengono che questa soluzione equivalga a inserire una backdoor, perché qualsiasi codice capace di leggere e analizzare i contenuti prima della cifratura può diventare vulnerabile ad abusi o attacchi. La discussione resta aperta: da un lato la tutela dei minori, dall’altro la salvaguardia della sicurezza e della riservatezza delle comunicazioni private.

Stato dell’iter e prossime tappe

Dal 2022 la proposta ha affrontato diverse fasi. Il Parlamento europeo nel 2023 ha espresso una posizione più cauta, opponendosi alla sorveglianza generalizzata e insistendo sul rispetto della crittografia. Nel frattempo, per evitare un vuoto normativo, l’UE ha prorogato la deroga temporanea fino al 3 aprile 2026, permettendo ai provider di proseguire le rilevazioni volontarie.

Il Consiglio, invece, non ha ancora trovato un compromesso definitivo. Le riunioni del settembre 2025 hanno rilanciato il dibattito, e si punta a un accordo entro l’autunno che aprirebbe la fase dei triloghi tra Consiglio, Parlamento e Commissione. Le prossime settimane saranno decisive per capire se il testo finale conterrà o meno la scansione lato client e in che forma saranno garantiti i diritti fondamentali.

Timori principali delle autorità privacy e degli esperti

Le autorità europee per la protezione dei dati, come il Garante europeo della protezione dei dati (EDPS) e il Comitato europeo per la protezione dei dati (EDPB), hanno espresso forti preoccupazioni. Nel loro parere congiunto del 2022 hanno sottolineato rischi di sproporzionalità, incertezza sul concetto di “rischio significativo” e possibilità di falsi positivi che potrebbero colpire utenti innocenti.

Gli esperti di sicurezza informatica avvertono che qualsiasi obbligo di scansione potrebbe minare l’integrità della crittografia e aumentare i rischi di cyberattacchi. Inoltre, c’è il timore di un effetto domino: una volta introdotta una tecnologia di sorveglianza, potrebbe essere estesa a fini diversi dalla lotta all’abuso sui minori, compromettendo libertà fondamentali come la riservatezza delle comunicazioni e la libertà di espressione.

Conseguenze possibili per utenti e provider

Se la proposta venisse approvata nella sua forma più restrittiva, i servizi di messaggistica e hosting sarebbero obbligati a integrare sistemi di rilevazione automatica sui dispositivi degli utenti. Ciò comporterebbe investimenti tecnologici onerosi e potrebbe spingere alcuni provider a ritirarsi dal mercato europeo. Gli utenti, dal canto loro, potrebbero perdere fiducia nelle piattaforme e migrare verso servizi esterni all’UE.

Un compromesso che salvaguardi la crittografia ma rafforzi la prevenzione del grooming sposterebbe invece il focus su controlli di età, sistemi di moderazione e rimozione rapida dei contenuti illegali. In ogni caso, la normativa avrà un impatto profondo sul modo in cui i servizi digitali operano nell’UE e potrebbe diventare un precedente rilevante a livello globale.

Perché la Commissione la ritiene necessaria

La Commissione europea insiste sul fatto che l’abuso sessuale sui minori online è un fenomeno in crescita, con milioni di contenuti segnalati ogni anno e un numero crescente di casi transfrontalieri. Secondo Bruxelles, senza un coordinamento centralizzato e obblighi vincolanti, gli Stati membri rischiano di restare impreparati e frammentati di fronte a un problema che non conosce confini.

L’istituzione dell’EU Centre è pensata per rispondere a questa sfida. Un organismo unico garantirebbe la validazione delle tecnologie, ridurrebbe i falsi positivi e faciliterebbe lo scambio di informazioni tra provider e autorità. Nella visione della Commissione, solo così si può conciliare l’esigenza di proteggere i minori con quella di rispettare i diritti fondamentali degli utenti europei.

Dove si colloca rispetto al diritto UE esistente

La proposta si innesta su strumenti giuridici già esistenti. La Direttiva 2011/93/UE stabilisce obblighi minimi di criminalizzazione per CSAM e grooming, mentre la Convenzione di Lanzarote ha fissato le prime definizioni di sollecitazione sessuale online. Il nuovo regolamento si intreccia inoltre con GDPR, direttiva ePrivacy e Digital Services Act, creando un mosaico normativo che regola sia la protezione dei dati sia i servizi digitali.

La differenza principale è che il regolamento avrebbe efficacia diretta in tutti gli Stati membri, senza bisogno di recepimento nazionale. Questo significa regole uniformi e applicabili ovunque nell’UE, con meno margini di discrezionalità. È anche per questo che il dibattito è così acceso: le scelte che verranno fatte ora avranno effetti duraturi sulla privacy e sulla sicurezza digitale di centinaia di milioni di cittadini europei.

Aiutaci a crescere: lasciaci un like :)

Le notizie tech prima di tutti? Nella nostra newsletter!

* indicates required
Accettazione privacy

Intuit Mailchimp