In una nuova FAQ, Apple ha cercato di placare i timori che le sue nuove misure anti-abuso sui minori possano essere trasformate in strumenti di sorveglianza da parte dei governi autoritari. “Siamo chiari, questa tecnologia è limitata al rilevamento di CSAM [materiale di abusi sessuali su minori] archiviato in iCloud e non accetteremo alcuna richiesta del governo di espanderlo”, scrive la società.
I nuovi strumenti di Apple, annunciati giovedì scorso, includono due funzionalità progettate per proteggere i bambini. Uno, chiamato “sicurezza della comunicazione”, utilizza l'apprendimento automatico sul dispositivo per identificare e sfocare le immagini sessualmente esplicite ricevute dai bambini nell'app Messaggi e può avvisare un genitore se un bambino di età pari o inferiore a 12 anni decide di visualizzare o inviare tale immagine. Il secondo è progettato per rilevare CSAM noto eseguendo la scansione delle immagini degli utenti se scelgono di caricarle su iCloud. Apple riceve una notifica se viene rilevato CSAM e avviserà le autorità quando verifica l'esistenza di tale materiale.
“La capacità di rilevamento CSAM di Apple è progettata esclusivamente per rilevare immagini CSAM note”
I piani hanno incontrato un rapido contraccolpo da parte di gruppi e attivisti per la privacy digitale, che hanno sostenuto che questi introducono una backdoor nel software di Apple. Questi gruppi notano che una volta che una tale backdoor esiste, c'è sempre la possibilità che venga ampliata per cercare tipi di contenuti che vanno oltre il materiale pedopornografico. I governi autoritari potrebbero usarlo per cercare materiale di dissenso politico, oppure i regimi anti-LGBT potrebbero usarlo per reprimere l'espressione sessuale.
“Anche una backdoor accuratamente documentata, attentamente ponderata e con un ambito ristretto è ancora una backdoor”, ha scritto la Electronic Frontier Foundation. “Abbiamo già visto questa missione insinuarsi in azione. Una delle tecnologie originariamente create per scansionare e hash di immagini di abusi sessuali su minori è stata riproposta per creare un database di contenuti “terroristici” a cui le aziende possono contribuire e a cui possono accedere allo scopo di vietare tali contenuti.”
Tuttavia, Apple sostiene di aver messo in atto misure di sicurezza per impedire che i suoi sistemi vengano utilizzati per rilevare qualsiasi cosa diversa dalle immagini di abusi sessuali. Dice che il suo elenco di immagini vietate è fornito dal National Center for Missing and Exploited Children (NCMEC) e da altre organizzazioni per la sicurezza dei bambini e che il sistema “funziona solo con gli hash delle immagini CSAM forniti da NCMEC e altre organizzazioni per la sicurezza dei bambini”. Apple afferma che non si aggiungerà a questo elenco di hash di immagini e che l'elenco è lo stesso su tutti gli iPhone e iPad per impedire il targeting individuale degli utenti.
La società afferma inoltre che rifiuterà le richieste dei governi di aggiungere immagini non CSAM all'elenco. “In passato abbiamo dovuto affrontare richieste di creare e implementare modifiche imposte dal governo che degradano la privacy degli utenti e abbiamo fermamente rifiutato tali richieste. Continueremo a rifiutarli in futuro”, afferma.
Vale la pena notare che, nonostante le assicurazioni di Apple, la società ha fatto concessioni ai governi in passato per continuare a operare nei loro paesi. Vende iPhone senza FaceTime in paesi che non consentono telefonate crittografate e in Cina ha rimosso migliaia di app dal suo App Store, oltre a trasferire i dati degli utenti sui server di una società di telecomunicazioni statale.
Anche le FAQ non rispondono ad alcune preoccupazioni sulla funzione che scansiona i Messaggi alla ricerca di materiale sessualmente esplicito. La funzione non condivide alcuna informazione con Apple o le forze dell'ordine, afferma la società, ma non dice come garantisce che l'attenzione dello strumento rimanga esclusivamente sulle immagini sessualmente esplicite.
” Tutto ciò che servirebbe per ampliare la stretta backdoor che Apple sta costruendo è un'espansione dei parametri di apprendimento automatico per cercare ulteriori tipi di contenuto o una modifica dei flag di configurazione da scansionare, non solo gli account dei bambini, ma di chiunque”, ha scritto il EFF. L'EFF rileva inoltre che le tecnologie di apprendimento automatico classificano spesso questi contenuti in modo errato e cita i tentativi di Tumblr di reprimere i contenuti sessuali come un esempio lampante di dove la tecnologia è andata male.