Apple ritarda le controverse funzionalità di protezione dei bambini dopo le proteste sulla privacy

0
133

Apple sta ritardando le sue funzioni di protezione dei minori annunciate il mese scorso, inclusa una controversa funzione che scansionerebbe le foto degli utenti alla ricerca di materiale pedopornografico (CSAM), a seguito di intense critiche secondo cui le modifiche potrebbero ridurre la privacy degli utenti. Le modifiche erano state programmate per essere implementate entro la fine dell'anno.

“Il mese scorso abbiamo annunciato piani per funzionalità intese a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale pedopornografico”, ha affermato Apple in una dichiarazione a The Verge. “Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità di sicurezza dei bambini di fondamentale importanza”.

È un'inversione importante < p id="Pt0z5g">Il comunicato stampa originale di Apple sui cambiamenti, che avevano lo scopo di ridurre la proliferazione di materiale pedopornografico (CSAM), ha una dichiarazione simile nella parte superiore della pagina. Quella versione ha dettagliato tre importanti cambiamenti nelle opere. Una modifica a Cerca e Siri indirizzerebbe alle risorse per impedire CSAM se un utente cercasse informazioni correlate.

Gli altri due cambiamenti sono stati oggetto di un esame più significativo. Uno avrebbe avvisato i genitori quando i loro figli stavano ricevendo o inviando foto sessualmente esplicite e sfocavano quelle immagini per i bambini. L'altro avrebbe scansionato le immagini archiviate nelle foto di iCloud di un utente per CSAM e le avrebbe segnalate ai moderatori Apple, che avrebbero quindi potuto riferire le segnalazioni al National Center for Missing and Exploited Children o NCMEC.

Correlati

Spiegazione delle controverse nuove funzionalità di protezione dei bambini di Apple

Apple ha dettagliato a lungo il sistema di scansione di foto di iCloud per dimostrare che non ha indebolito la privacy dell'utente. In breve, ha scansionato le foto archiviate in iCloud Photos sul tuo dispositivo iOS e le avrebbe valutate insieme a un database di hash di immagini CSAM noti da NCMEC e altre organizzazioni per la sicurezza dei bambini.

Tuttavia, molti esperti di privacy e sicurezza hanno pesantemente criticato l'azienda per il nuovo sistema, sostenendo che avrebbe potuto creare un sistema di sorveglianza sul dispositivo e che avrebbe violato la fiducia riposta dagli utenti Apple per la protezione della privacy sul dispositivo.

L'Electronic Frontier Foundation ha dichiarato in una dichiarazione del 5 agosto che il nuovo sistema, per quanto ben intenzionato, avrebbe “infranto le promesse chiave della crittografia stessa del messenger e aprire la porta ad abusi più ampi.”

“Apple sta compromettendo il telefono che io e te possediamo e gestiamo”, ha affermato Ben Thompson di Stratechery nelle sue critiche, “senza nessuno dei abbiamo voce in capitolo.”