Per anni ha rivendicato la superiorità della sua filosofia sulla privacy, ma Apple si trova ora a pagare un prezzo salato per uno scandalo che ne scalfisce l’immagine. L’azienda di Cupertino ha accettato di versare 95 milioni di dollari per chiudere una class action legata al presunto ascolto non autorizzato delle conversazioni da parte dell’assistente vocale Siri, utilizzato su iPhone, HomePod e Apple Watch.
Conversazioni intercettate e pubblicità mirate
Secondo i querelanti, Siri avrebbe registrato contenuti sensibili in modo accidentale o incontrollato, per poi trasformarli in materiale utile per l’advertising. Le testimonianze raccolte nel caso Lopez v. Apple parlano di situazioni inquietanti: discorsi privati su scarpe Air Jordan seguiti da pubblicità delle stesse, menzioni dell’Olive Garden seguite da spot di pasta, fino a conversazioni con il medico precedute da promo su interventi chirurgici. L’ipotesi alla base della causa è che, nonostante Apple abbia sempre negato di vendere o condividere queste informazioni con terzi a fini pubblicitari, il sistema Siri abbia inavvertitamente attivato il microfono, catturando conversazioni private che poi avrebbero influito sulla profilazione pubblicitaria.
Il caso esplode con un whistleblower
Tutto parte nel luglio 2019, quando il Guardian pubblica la testimonianza anonima di un subappaltatore Apple il cui lavoro consisteva nell’ascoltare registrazioni Siri per verificare la correttezza dell’attivazione vocale. L’anonimo whistleblower racconta di aver sentito interazioni intime, trattative di droga, visite mediche e altre situazioni estremamente personali, spesso attivate da suoni banali come una zip. Oltre all’audio, le registrazioni includevano anche dati di localizzazione e contatti.
Apple ha inizialmente sospeso il programma di ascolto, poi ha modificato le impostazioni di default rendendo l’analisi umana un’opzione attivabile manualmente. Tuttavia, l’azienda non ha mai ammesso ufficialmente una violazione della privacy, e continua a negare tutte le accuse contenute nella causa, come prassi nelle transazioni giudiziarie collettive negli Stati Uniti.
Un problema che va oltre Apple
Il caso Siri non è isolato. Alexa di Amazon nel 2018 ha registrato una conversazione privata su pavimenti in legno e l’ha inviata per errore a un contatto. L’anno successivo è emerso che migliaia di dipendenti trascrivevano registrazioni audio per migliorare la comprensione vocale. Google è stata accusata di pratiche simili. Persino Samsung, nel 2015, ha avvertito gli utenti di non parlare di cose delicate vicino alle smart TV, perché i comandi vocali venivano inviati a terze parti non identificate. Il pattern è evidente: per allenare gli assistenti vocali servono interventi umani, e questi finiscono spesso per ascoltare ciò che non dovrebbero.
Percezione pubblica e timore diffuso
Una ricerca del 2019 rilevava che il 55% degli statunitensi credeva che i propri telefoni li ascoltassero per proporre pubblicità mirate. Nel 2023, la percentuale è salita oltre il 60%. Anche nel Regno Unito, due terzi degli adulti intervistati affermavano di aver notato almeno una pubblicità legata a una conversazione reale appena avvenuta. Gli psicologi parlano di bias di conferma: notiamo solo le coincidenze che ci colpiscono, ignorando l’infinità di spot irrilevanti. Ma l’effetto è reale, e produce un clima di diffidenza costante, con utenti che coprono i microfoni dei dispositivi e si sfogano su TikTok chiedendo a Siri di “smettere di spiarli”.
Rimborsi simbolici, danno d’immagine concreto
Il risarcimento previsto è modesto: fino a 20 dollari per ciascun dispositivo Siri attivato e acquistato tra settembre 2014 e dicembre 2024. Il sito per le richieste è stato aperto all’inizio di maggio, accessibile a tutti i residenti negli Stati Uniti. È poco, ma sufficiente a ricordare che neanche Apple è infallibile. Per l’azienda che nel 2019 aveva tappezzato Las Vegas con il messaggio “Quello che succede sul tuo iPhone, resta sul tuo iPhone”, la vicenda rappresenta una crepa nell’immagine costruita sulla privacy. E rilancia una domanda fondamentale: se nemmeno Apple riesce a controllare del tutto i suoi microfoni, chi potrà mai farlo?







































Lascia un commento