
Immagine: Apple
Apple ha prodotto una FAQ [PDF] in risposta alle critiche mosse dopo aver annunciato l'intenzione di far scansionare i dispositivi alla ricerca di materiale pedopornografico nelle immagini caricate su iCloud.
Il sistema di rilevamento di materiale pedopornografico (CSAM) avrà dispositivi con iOS 15, iPadOS 15, watchOS 8 e macOS Monterey corrispondenti alle immagini sul dispositivo rispetto a un elenco di hash di immagini CSAM noti fornito dagli Stati Uniti National Center for Missing and Exploited Children (NCMEC) e altre organizzazioni per la sicurezza dei bambini prima che un'immagine venga archiviata in iCloud.
Se viene effettuata una corrispondenza di hashing, i metadati che Apple chiama “voucher di sicurezza” verranno caricati insieme all'immagine e, una volta raggiunta una soglia senza nome, Apple ispezionerà manualmente i metadati e se li considera CSAM, l'account verrà disabilitato e un rapporto inviato a NCMEC.
Gran parte delle critiche ha ruotato attorno all'idea che, anche se Apple fosse ben intenzionata e attualmente limitata, il sistema potrebbe essere ampliato da sola Apple o, a seguito di un ordine del tribunale, potrebbe dare la caccia ad altri tipi di Materiale.
Apple ha affermato che i suoi processi sono stati progettati per impedire che ciò accada.
“Il rilevamento CSAM per le foto di iCloud è progettato in modo che il sistema funzioni solo con gli hash delle immagini CSAM forniti da NCMEC e da altre organizzazioni per la sicurezza dei bambini”, ha affermato Apple.
“Non esiste alcuna segnalazione automatica alle forze dell'ordine e Apple esegue un controllo umano prima di inviare una segnalazione a NCMEC. Di conseguenza, il sistema è progettato solo per segnalare foto che sono note come CSAM in iCloud Photos. < /p>
“Nella maggior parte dei paesi, compresi gli Stati Uniti, il semplice possesso di queste immagini è un crimine e Apple è obbligata a segnalare alle autorità competenti qualsiasi caso di cui veniamo a conoscenza”.
Alla prospettiva di essere costretta ad aggiungere altri hash al suo set di dati, Apple ha fatto riferimento ai suoi precedenti rifiuti di aiutare le forze dell'ordine statunitensi.
“Apple rifiuterà tali richieste”, ha affermato. “In passato abbiamo dovuto affrontare richieste di creare e implementare modifiche imposte dal governo che degradano la privacy degli utenti e abbiamo fermamente rifiutato tali richieste. Continueremo a rifiutarle in futuro.
“Siamo chiari, questa tecnologia si limita al rilevamento di CSAM archiviato in iCloud e non accetteremo alcuna richiesta del governo di espanderlo. Inoltre, Apple conduce un esame umano prima di inviare una segnalazione a NCMEC. Nel caso in cui il sistema contrassegna le foto che non corrispondono a immagini CSAM note, l'account non verrebbe disabilitato e nessun rapporto verrebbe presentato a NCMEC.”
Apple ha affermato che il suo sistema impedirebbe l'iniezione e il contrassegno di immagini non CSAM poiché la società non aggiunge il set di hash utilizzato per la corrispondenza e gli esseri umani sono coinvolti nel processo di verifica.
“Lo stesso set di hash è memorizzato nel sistema operativo di ogni utente di iPhone e iPad, quindi gli attacchi mirati contro solo individui specifici non sono possibili secondo il nostro progetto”, ha affermato Apple.
“Di conseguenza, errori di sistema o attacchi non comporteranno la segnalazione di persone innocenti all'NCMEC.”
Il produttore di iPhone ha ribadito le sue affermazioni secondo cui la soluzione aveva vantaggi sulla privacy rispetto alla possibilità di scansionare le immagini caricate su di essa.
“Le tecniche esistenti implementate da altre aziende scansionano tutte le foto degli utenti archiviate nel cloud”, ha affermato.
“Ciò crea un rischio per la privacy per tutti gli utenti. Il rilevamento CSAM in Foto di iCloud offre vantaggi significativi per la privacy rispetto a tali tecniche, impedendo ad Apple di apprendere le foto a meno che non corrispondano a immagini CSAM note e non siano incluse in una Foto di iCloud account che include una raccolta di CSAM noti.”
Apple ha anche affermato che la funzione non funzionerebbe se gli utenti avessero disabilitato le foto di iCloud e non funzionerebbe sulla “libreria di foto iPhone privata sul dispositivo”.
Sulla scansione delle immagini in iMessage, Apple ha ampliato i requisiti per i genitori di essere avvisati una volta creato un gruppo famiglia e i genitori si sono attivati.
“Per gli account per bambini di età pari o inferiore a 12 anni, ogni istanza di un'immagine sessualmente esplicita inviata o ricevuta avviserà il bambino che se continua a visualizzare o inviare l'immagine, ai genitori verrà inviata una notifica. Solo se il bambino procede con l'invio o visualizzare un'immagine dopo questo avviso verrà inviata la notifica”, ha affermato.
“Per gli account per bambini di età compresa tra 13 e 17 anni, il bambino viene comunque avvisato e gli viene chiesto se desidera visualizzare o condividere un'immagine sessualmente esplicita, ma i genitori non vengono avvisati”.
Apple ha affermato che stava cercando di aggiungere “un ulteriore supporto a Siri e Search per fornire alle vittime – e alle persone che conoscono le vittime – maggiori indicazioni su come cercare aiuto”.
Sebbene il sistema CSAM sia attualmente limitato agli Stati Uniti, Cupertino potrebbe presto subire pressioni da Canberra per portarlo in Australia.
Lunedì, il governo ha presentato una serie di regole per la sicurezza online che riguarderanno i social media, le piattaforme di messaggistica e qualsiasi servizio elettronico pertinente di qualsiasi tipo.
Il provider dovrebbe ridurre al minimo la disponibilità di materiale di cyberbullismo rivolto a un bambino australiano, materiale di abuso informatico rivolto a un adulto australiano, un'immagine intima non consensuale di una persona, materiale di classe 1, materiale che promuove una condotta violenta ripugnante, materiale che incita condotta violenta ripugnante, materiale che istruisce su una condotta violenta ripugnante e materiale che descrive una condotta violenta ripugnante.
Le aspettative vantano anche ulteriori aspettative, ad esempio che il fornitore del servizio adotterà misure ragionevoli per ridurre al minimo in modo proattivo la misura in cui il materiale o l'attività sul servizio è o potrebbe essere illegale o dannoso.
L'eSafety Commissioner australiano avrà il potere di ordinare alle aziende tecnologiche di riferire su come stanno rispondendo a questi danni e di emettere multe fino a 555.000 AU$ per le aziende e 111.000 AU$ per gli individui se non rispondono.
Copertura correlata
La scansione di materiale pedopornografico di Apple in iOS 15 attira l'attenzione Perché sembra che Apple faccia così tante cattive scelte di progettazione? Apple ha un problema con ProtonVPN che vuole sfidare i governi L'FBI critica Apple per non aver aiutato crack iPhone di chi ha sparato a PensacolaTrump chiede ad Apple di sbloccare il telefono del presunto tiratore per l'FBI
Argomenti correlati:
Apple Security TV Data Management CXO Data Centers