Apple frena i piani per scansionare le immagini degli utenti alla ricerca di contenuti pedopornografici

0
146

Charlie Osborne

Di Charlie Osborne per Zero Day | 6 settembre 2021 — 08:25 GMT (09:25 BST) | Argomento: sicurezza

Apple ha sospeso i piani per la scansione dei dispositivi alla ricerca di materiale pedopornografico e di sfruttamento dopo che lo strumento ha suscitato preoccupazione tra gli utenti e i gruppi per la privacy.

Annunciate il mese scorso, le nuove funzionalità di sicurezza erano destinate all'inclusione in iOS 15, iPadOS 15, watchOS 8 e macOS Monterey. La prima era una funzionalità per il monitoraggio dell'applicazione Messaggi, con l'apprendimento automatico lato client implementato per scansionare e avvisare quando vengono inviate immagini sessualmente esplicite, richiedendo l'input dell'utente se desidera visualizzare o meno il materiale.

“Come ulteriore precauzione, al bambino può anche essere detto che, per assicurarsi che sia al sicuro, i suoi genitori riceveranno un messaggio se lo visualizzano”, ha spiegato la società.

La seconda serie di modifiche ha interessato Siri e Search, con aggiornamenti inclusi per fornire informazioni aggiuntive a genitori e figli per avvertirli quando si sono imbattuti in situazioni “non sicure”, nonché per “intervenire” se una ricerca di materiale sugli abusi sessuali su minori (CSAM ) è stato eseguito da un utente.

Il terzo era uno strumento di scansione CSAM, pubblicizzato come un mezzo per “proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli”.

Secondo il produttore di iPhone e iPad, lo strumento utilizzerebbe la crittografia “per aiutare a limitare la diffusione di CSAM online” e allo stesso tempo tutelare la privacy degli utenti. Le immagini non verrebbero scansionate nel cloud, ma verrebbe eseguita una corrispondenza sul dispositivo in cui le immagini verrebbero confrontate con gli hash collegati a immagini CSAM note.

“Il rilevamento di CSAM aiuterà Apple a fornire informazioni preziose alle forze dell'ordine sulle raccolte di CSAM nelle foto di iCloud”, ha affermato la società. “Questo programma è ambizioso e proteggere i bambini è una responsabilità importante. Questi sforzi si evolveranno e si espanderanno nel tempo”.

In un documento tecnico (.PDF) che descrive lo strumento, Apple ha dichiarato:

“CSAM Detection consente ad Apple di identificare e segnalare con precisione gli utenti iCloud che archiviano CSAM noto nei propri account Foto di iCloud. I server Apple segnalano account che superano un numero soglia di immagini che corrispondono a un database noto di hash di immagini CSAM in modo che Apple possa fornire informazioni pertinenti al National Center for Missing and Exploited Children (NCMEC). Questo processo è sicuro ed è espressamente progettato per preservare la privacy degli utenti. “

Tuttavia, lo scanner ha suscitato polemiche online, suscitando critiche da parte dei sostenitori della privacy e degli esperti di crittografia.

Il professore associato presso il Johns Hopkins Information Security Institute e l'esperto di crittografia Matthew Green hanno affermato che l'implementazione della crittografia per la scansione di immagini contenenti hash specifici potrebbe diventare “un ingrediente chiave nell'aggiunta di sorveglianza ai sistemi di messaggistica crittografati”.

Pur creato con buone intenzioni, uno strumento del genere potrebbe diventare un'arma potente nelle mani sbagliate, come quelle di governi autoritari e dittature.

Anche la Electronic Frontier Foundation ha respinto i piani e ha lanciato una petizione per fare pressione su Apple affinché faccia marcia indietro. Al momento in cui scriviamo, il motivo ha oltre 27.000 firme. Anche Fight for the Future e OpenMedia hanno lanciato petizioni simili.

Il 3 settembre, Apple ha dichiarato che il lancio è stato interrotto per prendere “più tempo” per analizzare gli strumenti e il loro potenziale impatto futuro.

“In precedenza abbiamo annunciato piani per funzionalità intese a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e per aiutare a limitare la diffusione di materiale pedopornografico”, ha affermato Apple. “Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità di sicurezza dei bambini di fondamentale importanza”.

Green ha affermato che è stata una mossa positiva da parte di Apple prendersi il tempo per prendere in considerazione il lancio. L'EFF si è detto “soddisfatto” della decisione di Apple, ma ha aggiunto che ascoltare non è abbastanza: il gigante della tecnologia dovrebbe “abbandonare completamente i suoi piani per mettere completamente una backdoor nella sua crittografia”.

“Le funzionalità annunciate da Apple un mese fa, con l'intenzione di aiutare a proteggere i bambini, creerebbero un'infrastruttura che è fin troppo facile da reindirizzare a una maggiore sorveglianza e censura”, afferma il gruppo per i diritti digitali. “Queste funzionalità creerebbero un enorme pericolo per la privacy e la sicurezza degli utenti iPhone, offrendo ai governi autoritari un nuovo sistema di sorveglianza di massa per spiare i cittadini”.

Copertura precedente e correlata

Preparati per iOS 15 e iPadOS 15
iPhone non così nuovi: come Apple ti convince ad acquistare roba vecchia
Google prende in giro avidamente Apple (ma aspetta, dove l'ho già visto?)

Hai un consiglio? Mettiti in contatto in modo sicuro tramite WhatsApp | Segnale al numero +447713 025 499 o tramite Keybase: charlie0

Argomenti correlati:

Apple Security TV Data Management CXO Data Center Charlie Osborne

di Charlie Osborne per Zero Day | 6 settembre 2021 — 08:25 GMT (09:25 BST) | Argomento: Sicurezza