Apple scansiona gli iPhone alla ricerca di immagini di abusi su minori

Apple ha annunciato i dettagli di un sistema per trovare materiale pedopornografico (CSAM) sui dispositivi dei clienti statunitensi

Prima che un’immagine venga archiviata su iCloud Photos, la tecnologia cercherà corrispondenze di CSAM già noti. Apple ha affermato che se viene trovata una corrispondenza, un revisore umano valuterà e segnalerà l’utente alle forze dell’ordine. Tuttavia, ci sono problemi di privacy sulla tecnologia, gli esperti temono che possa essere utilizzata da governi autoritari per spiare i propri cittadini o anche dei discorsi politici, fa sapere BBC News.

Apple ha affermato che le nuove versioni di iOS e iPadOS – rilasciate entro la fine dell’anno – avranno «nuove applicazioni di crittografia per aiutare a limitare la diffusione di CSAM online, progettando per la privacy degli utenti». Il sistema funziona confrontando le immagini con un database di immagini di abusi sessuali su minori compilato dal Centro nazionale degli Stati Uniti per i bambini scomparsi e sfruttati (NCMEC) e altre organizzazioni per la sicurezza dei bambini.

Queste immagini vengono tradotte in “hash”, codici numerici che possono essere “associati” a un’immagine su un dispositivo Apple. Inoltre la tecnologia catturerà anche versioni modificate ma simili delle immagini originali.

Alto livello di precisione

La società ha affermato che il sistema ha un «livello di precisione estremamente elevato e garantisce la possibilità, meno di una su un trilione all’anno, di segnalare erroneamente un determinato account». Tuttavia, alcuni esperti di privacy esprimono preoccupazioni.

RIPRODUZIONE RISERVATA

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *