WhatsApp non adotterà le nuove misure di sicurezza dei bambini di Apple, intese a fermare la diffusione di immagini pedopornografiche, secondo il capo di WhatsApp Will Cathcart. In un thread su Twitter, spiega la sua convinzione che Apple “ha creato un software in grado di scansionare tutte le foto private sul telefono” e ha affermato che Apple ha preso la strada sbagliata nel tentativo di migliorare la sua risposta al materiale pedopornografico, o CSAM. .
Il piano di Apple, annunciato giovedì, prevede di prendere hash di immagini caricate su iCloud e confrontarle con un database che contiene hash di immagini CSAM note. Secondo Apple, ciò consente di mantenere crittografati i dati dell'utente ed eseguire l'analisi sul dispositivo, consentendo comunque di segnalare gli utenti alle autorità se si scopre che condividono immagini di abusi sui minori. Un altro aspetto della strategia per la sicurezza dei bambini di Apple prevede l'avvertimento facoltativo dei genitori se il loro bambino di età inferiore a 13 anni invia o visualizza foto con contenuti sessualmente espliciti. Un promemoria interno di Apple ha riconosciuto che le persone sarebbero “preoccupate per le implicazioni” dei sistemi.
Ho letto le informazioni pubblicate ieri da Apple e sono preoccupato. Penso che questo sia l'approccio sbagliato e una battuta d'arresto per la privacy delle persone in tutto il mondo.
Le persone hanno chiesto se adotteremo questo sistema per WhatsApp. La risposta è no.
— Will Cathcart (@wcathcart) 6 agosto 2021
Cathcart definisce l'approccio di Apple “molto preoccupante”, affermando che consentirebbe ai governi con idee diverse su che tipo di immagini sono e non sono accettabili di richiedere che Apple aggiunga immagini non CSAM ai database con cui confronta le immagini. Cathcart afferma che il sistema di WhatsApp per combattere lo sfruttamento minorile, che utilizza in parte le segnalazioni degli utenti, preserva la crittografia come quella di Apple e ha portato la società a segnalare oltre 400.000 casi al National Center for Missing and Exploited Children nel 2020. (Apple sta anche lavorando con il Center for i suoi sforzi di rilevamento CSAM.)
Il proprietario di WhatsApp, Facebook, ha motivi per avventarsi su Apple per problemi di privacy. Le modifiche di Apple al funzionamento del monitoraggio degli annunci in iOS 14.5 hanno avviato una lotta tra le due società, con Facebook che ha acquistato annunci sui giornali che criticavano le modifiche alla privacy di Apple come dannose per le piccole imprese. Apple ha risposto al fuoco, affermando che il cambiamento “richiede semplicemente” che agli utenti venga data la possibilità di scegliere se essere tracciati.
Cathcart definisce l'approccio di Apple “molto preoccupante” e non è solo
Tuttavia, non è solo WhatsApp ad aver criticato le nuove misure di sicurezza dei bambini di Apple. L'elenco delle persone e delle organizzazioni che sollevano preoccupazioni include Edward Snowden, la Electronic Frontier Foundation, professori e altro ancora. Abbiamo raccolto alcune di queste reazioni qui per fungere da panoramica di alcune delle critiche mosse contro la nuova politica di Apple.
Matthew Green, professore associato presso la Johns Hopkins University, ha respinto sulla funzione prima che fosse annunciata pubblicamente. Ha twittato sui piani di Apple e su come i governi e gli attori malintenzionati potrebbero abusare del sistema di hashing.
Questi strumenti consentiranno ad Apple di scansionare le foto del tuo iPhone alla ricerca di foto che corrispondano a uno specifico hash percettivo e di segnalarle ai server Apple se ne appaiono troppe.
— Matthew Green (@matthew_d_green) 5 agosto 2021
< p id="AKpR2F">L'EFF ha rilasciato una dichiarazione che ha fatto saltare in aria il piano di Apple, definendolo più o meno una “backdoor accuratamente documentata, attentamente ponderata e con un ambito ristretto”. Il comunicato stampa dell'EFF entra nei dettagli su come ritiene che le misure di sicurezza dei bambini di Apple potrebbero essere abusate dai governi e su come riducono la privacy degli utenti.
Il filtraggio di iMessage e iCloud da parte di Apple non è un pendio scivoloso verso le backdoor che sopprimono la voce e rendono le nostre comunicazioni meno sicure. Ci siamo già: questo è un sistema completamente costruito che aspetta solo la pressione esterna per apportare il minimo cambiamento. https://t.co/f2nv062t2n
— EFF (@EFF) 5 agosto 2021
Kendra Albert, istruttrice presso la Cyberlaw Clinic di Harvard, ha un thread sui potenziali pericoli per i bambini queer e sulla mancanza di chiarezza iniziale di Apple sulle fasce di età per la funzione di notifica dei genitori.
< p lang="en" dir="ltr">L'idea che i genitori siano persone sicure con cui gli adolescenti possono parlare di sesso o sexting è ammirevole, ma in molti casi non è vera. (E per quanto ne so, questa roba non si applica solo ai bambini di età inferiore ai 13 anni)
— Kendra Albert (@KendraSerra) 5 agosto 2021
EFF riporta che le notifiche di nudità di iMessage non andranno ai genitori se il bambino ha tra i 13 ei 17 anni ma non è da nessuna parte nella documentazione Apple che posso trovare. https://t.co/Ma1BdyqZfW
— Kendra Albert (@KendraSerra) 6 agosto 2021
Edward Snowden ha ritwittato l'articolo del Financial Times sul sistema, dando il suo caratterizzazione di ciò che Apple sta facendo.
Apple prevede di modificare gli iPhone per cercare costantemente il contrabbando:
“È un'idea assolutamente spaventosa, perché porterà a una sorveglianza di massa distribuita dei nostri telefoni e laptop”, ha affermato Ross Anderson, professore di ingegneria della sicurezza. https://t.co/rS92HR3pUZ
— Edward Snowden (@Snowden) 5 agosto 2021
La politica Brianna Wu ha definito il sistema “la peggiore idea nella storia di Apple. ”
Questa è l'idea peggiore nella storia di Apple e non lo dico alla leggera.
Distrugge la loro credibilità sulla privacy. Sarà abusato dai governi. Farà uccidere e rinnegare i bambini gay. Questa è l'idea peggiore di sempre. https://t.co/M2EIn2jUK2
— Brianna Wu (@BriannaWu) 5 agosto 2021
Solo per affermare: la scansione di Apple non rileva le foto di abusi sui minori. Rileva un elenco di immagini vietate note aggiunte a un database, che inizialmente sono immagini pedopornografiche trovate in circolazione altrove. Le immagini che vengono aggiunte nel tempo sono arbitrarie. Non sa cosa sia un bambino.
— SoS (@SwiftOnSecurity) 5 agosto 2021
Lo scrittore Matt Blaze ha anche twittato sulle preoccupazioni che la tecnologia possa essere abusata esagerando con i governi, cercando di impedire contenuti diversi da CSAM.
In altre parole, non solo la politica deve essere eccezionalmente solida, ma anche l'implementazione.
— matt blaze (@mattblaze) 6 agosto 2021
CEO di Epic Tim Sweeney ha anche criticato Apple, affermando che la società “svuota i dati di tutti in iCloud per impostazione predefinita”. Ha anche promesso di condividere più pensieri specificamente sul sistema di sicurezza dei bambini di Apple.
È atroce come Apple risucchi i dati di tutti in iCloud per impostazione predefinita, nasconda le oltre 15 opzioni separate per disattivarne parti in Impostazioni sotto il tuo nome e ti costringa ad avere un account e-mail indesiderato. Apple non consentirebbe MAI a terzi di distribuire un'app come questa.
— Tim Sweeney (@TimSweeneyEpic) 6 agosto 2021
Condividerò in seguito alcuni pensieri molto dettagliati su questo argomento correlato.
— Tim Sweeney (@TimSweeneyEpic) 6 agosto 2021
Non tutte le reazioni hanno stato critico, tuttavia. Ashton Kutcher (che ha svolto attività di advocacy per porre fine al traffico sessuale di minori dal 2011) definisce il lavoro di Apple “un grande passo avanti” per gli sforzi per eliminare CSAM.
Credo nella privacy, anche per i bambini il cui abuso sessuale è documentato e diffuso online senza consenso. Questi sforzi annunciati da @Apple sono un importante passo avanti nella lotta per eliminare CSAM da Internet. https://t.co/TQIxHlu4EX
— ashton kutcher (@aplusk) 5 agosto 2021