Lo scanner per abusi sui minori di Apple ha un grave difetto, dicono i ricercatori

0
117

I ricercatori hanno trovato un difetto nella funzione hash integrata di iOS, sollevando nuove preoccupazioni sull'integrità del sistema di scansione CSAM di Apple. Il difetto interessa il sistema di hashing, chiamato NeuralHash, che consente ad Apple di verificare le corrispondenze esatte di immagini di pedofilia note senza possedere alcuna delle immagini o raccogliere informazioni su immagini non corrispondenti.

Martedì, un utente di GitHub chiamato Asuhariet Ygvar ha pubblicato il codice per una versione Python ricostruita di NeuralHash, che ha affermato di aver decodificato dalle versioni precedenti di iOS. Il post di GitHub include anche istruzioni su come estrarre i file NeuralMatch da una build corrente di macOS o iOS.

“I primi test mostrano che può tollerare il ridimensionamento e la compressione delle immagini, ma non il ritaglio o rotazioni”, ha scritto Ygvar su Reddit, condividendo il nuovo codice. “Spero che questo ci aiuti a comprendere meglio l'algoritmo NeuralHash e a conoscere i suoi potenziali problemi prima che venga abilitato su tutti i dispositivi iOS.”

I ricercatori hanno prodotto una collisione: due immagini che generano lo stesso hash

Una volta che il codice è stato reso pubblico, sono stati rapidamente scoperti difetti più significativi. Un utente chiamato Cory Cornelius ha prodotto una collisione nell'algoritmo: due immagini che generano lo stesso hash. Se i risultati resistono, sarà un fallimento significativo nella crittografia alla base del nuovo sistema di Apple.

Il 5 agosto, Apple ha introdotto un nuovo sistema per fermare le immagini pedopornografiche sui dispositivi iOS. Con il nuovo sistema, iOS controllerà i file archiviati localmente rispetto agli hash di immagini di abusi sui minori, come generati e gestiti dal National Center for Missing and Exploited Children (NCMEC). Il sistema contiene numerose garanzie per la privacy, limitando le scansioni alle foto di iCloud e impostando una soglia di ben 30 corrispondenze trovate prima che venga generato un avviso. Tuttavia, i sostenitori della privacy rimangono preoccupati per le implicazioni della scansione dell'archiviazione locale alla ricerca di materiale illegale e la nuova scoperta ha aumentato le preoccupazioni su come il sistema potrebbe essere sfruttato.

Sebbene la collisione sia significativa, richiederebbe sforzi straordinari per sfruttarla nella pratica. In genere, gli attacchi di collisione consentono ai ricercatori di trovare input identici che producono lo stesso hash. Nel sistema di Apple, ciò significherebbe generare un'immagine che attiva gli avvisi CSAM anche se non è un'immagine CSAM, poiché produce lo stesso hash di un'immagine nel database. Ma in realtà generare quell'avviso richiederebbe l'accesso al database hash NCMEC, generando più di 30 immagini in collisione e quindi contrabbandandole tutte sul telefono del bersaglio. Anche allora, genererebbe solo un avviso ad Apple e NCMEC, che identificherebbe facilmente le immagini come falsi positivi.

Tuttavia, è un difetto imbarazzante che non farà altro che aumentare le critiche al nuovo sistema di segnalazione. Una collisione proof-of-concept è generalmente considerata un segno che l'algoritmo sottostante dovrebbe essere abbandonato, come nel caso della collisione SHA-1 nel 2017. Ma non è chiaro se Apple sostituirà l'algoritmo in risposta alla scoperta, o apportare modifiche più misurate per mitigare potenziali attacchi. Apple non ha risposto immediatamente a una richiesta di commento.

Più in generale, la scoperta probabilmente aumenterà le richieste di Apple di abbandonare i suoi piani per le scansioni su dispositivo, che hanno continuato a intensificarsi in le settimane successive all'annuncio. Martedì, l'Electronic Frontier Foundation ha lanciato una petizione chiedendo ad Apple di abbandonare il sistema, dal titolo “Dillo ad Apple: non scansionare i nostri telefoni”. Al momento della stampa, ha raccolto più di 1.700 firme.