Apple rivela nuovi sforzi per combattere le immagini di abusi sui minori

0
141

In un briefing giovedì pomeriggio, Apple ha confermato i piani precedentemente segnalati per l'implementazione di nuove tecnologie all'interno di iOS, macOS, watchOS e iMessage che rileveranno potenziali immagini di abusi sui minori, ma ha chiarito i dettagli cruciali del progetto in corso. Per i dispositivi negli Stati Uniti, le nuove versioni di iOS e iPadOS lanciate questo autunno hanno “nuove applicazioni di crittografia per aiutare a limitare la diffusione di CSAM [materiale pedopornografico] online, mentre si progetta per la privacy degli utenti”.

Il progetto è anche dettagliato in una nuova pagina “Sicurezza dei bambini” sul sito Web di Apple. L'implementazione più invasiva e potenzialmente controversa è il sistema che esegue la scansione sul dispositivo prima che venga eseguito il backup di un'immagine in iCloud. Dalla descrizione, la scansione non viene eseguita fino a quando non viene eseguito il backup di un file su iCloud e Apple riceve i dati su una corrispondenza solo se i voucher crittografici (caricati su iCloud insieme all'immagine) per un particolare account soddisfano una soglia di corrispondenza CSAM nota .

Apple ha descritto diverse restrizioni incluse per proteggere la privacy

Per anni, Apple ha utilizzato sistemi di hash per la scansione di immagini di abusi sui minori inviate tramite e-mail, in linea con sistemi simili di Gmail e altri provider di posta elettronica cloud. Il programma annunciato oggi applicherà le stesse scansioni alle immagini degli utenti archiviate in iCloud Photos, anche se le immagini non vengono mai inviate a un altro utente o condivise in altro modo.

In un PDF fornito insieme al briefing, Apple ha giustificato le sue mosse per la scansione delle immagini descrivendo diverse restrizioni incluse per proteggere la privacy:

Apple non apprende nulla sulle immagini che non corrispondono al CSAM conosciuto

database.

Apple non può accedere ai metadati o ai derivati ​​visivi per le immagini CSAM corrispondenti fino a

la soglia di corrispondenze è stata superata per un account iCloud Photos.

Il rischio che il sistema segnali erroneamente un account è estremamente basso. Inoltre,

Apple esamina manualmente tutti i rapporti inviati a NCMEC per garantire l'accuratezza dei rapporti.

Gli utenti non possono accedere o visualizzare il database di immagini CSAM note.

Gli utenti non possono identificare quali immagini sono state contrassegnate come CSAM dal sistema

I nuovi dettagli si basano sulle preoccupazioni trapelate all'inizio di questa settimana, ma aggiungono anche una serie di salvaguardie che dovrebbero proteggersi dai rischi per la privacy di un tale sistema. In particolare, il sistema di soglia garantisce che gli errori solitari non generino avvisi, consentendo ad Apple di raggiungere un tasso di errore di un falso avviso per trilione di utenti all'anno. Il sistema di hashing è inoltre limitato al materiale segnalato dal National Center for Missing and Exploited Children (NCMEC) e alle immagini caricate su iCloud Photos. Una volta generato, un avviso viene esaminato da Apple e NCMEC prima di allertare le forze dell'ordine, fornendo un'ulteriore protezione contro il sistema utilizzato per rilevare contenuti non CSAM.

Apple ha commissionato valutazioni tecniche del sistema a tre crittografi indipendenti (PDF 1, 2 e 3), che lo hanno trovato matematicamente robusto. “Secondo me questo sistema aumenterà in modo significativo la probabilità che vengano trovate persone che possiedono o trafficano in tali immagini (utenti dannosi); questo dovrebbe aiutare a proteggere i bambini”, ha affermato il professor David Forsyth, cattedra di informatica presso l'Università dell'Illinois, in una delle valutazioni. “L'accuratezza del sistema di corrispondenza, combinata con la soglia, rende molto improbabile che vengano rivelate immagini che non sono immagini CSAM conosciute.”

Tuttavia, Apple ha affermato che altri gruppi per la sicurezza dei bambini potrebbero essere aggiunti come fonti di hash man mano che il programma si espande e la società non si è impegnata a rendere l'elenco dei partner disponibile al pubblico in futuro. Ciò potrebbe aumentare le ansie su come il sistema potrebbe essere sfruttato dal governo cinese, che da tempo cerca un maggiore accesso ai dati degli utenti iPhone all'interno del paese.

Esempi di messaggi di avviso per bambini e genitori quando vengono rilevate foto sessualmente esplicite Messaggi di esempio che avvisano bambini e genitori quando vengono rilevate foto sessualmente esplicite. Foto: Apple

Accanto alle nuove misure in iCloud Photos, Apple ha aggiunto due sistemi aggiuntivi per proteggere i giovani possessori di iPhone a rischio di abusi sui minori. L'app Messaggi ha già eseguito la scansione sul dispositivo degli allegati di immagini per gli account dei bambini per rilevare contenuti potenzialmente sessualmente espliciti. Una volta rilevato, il contenuto è sfocato e viene visualizzato un avviso. Una nuova impostazione che i genitori possono abilitare sui propri account iCloud di famiglia attiverà un messaggio che informa il bambino che se visualizza (in entrata) o invia (in uscita) l'immagine rilevata, i genitori riceveranno un messaggio al riguardo.

Apple sta anche aggiornando il modo in cui Siri e l'app di ricerca rispondono alle domande sulle immagini di abusi sui minori. Con il nuovo sistema, le app “spiegheranno agli utenti che l'interesse per questo argomento è dannoso e problematico e forniranno risorse dai partner per ottenere aiuto con questo problema”.