Secondo quanto riferito, Apple eseguirà la scansione del tuo iPhone alla ricerca di immagini di abusi sui minori

0
5

Chikena/Shutterstock.com

Secondo rapporti credibili, Apple prevede di iniziare a installare software su iPhone negli Stati Uniti che eseguiranno automaticamente la scansione delle foto locali alla ricerca di immagini di abusi sui minori. Secondo quanto riferito, Apple eseguirà la scansione solo delle foto caricate su iCloud con questa tecnologia, almeno all'inizio.

Aggiornare: Apple ha confermato gran parte di questa segnalazione in un documento dettagliato.

Cosa sta facendo Apple?

I resoconti sui piani di Apple provengono dal Financial Times e dal professore della Johns Hopkins University Matthew Green, entrambe fonti generalmente affidabili. Ovviamente, fino a quando Apple non confermerà che è così, c'è sempre la possibilità che ciò non accada. Secondo quanto riferito, Apple ha dimostrato il piano ad alcuni accademici statunitensi all'inizio di questa settimana.

Ho avuto conferma indipendente da più persone che Apple rilascerà domani uno strumento lato client per la scansione CSAM. Questa è davvero una pessima idea.

— Matthew Green (@matthew_d_green) 4 agosto 2021

Secondo i rapporti, Apple utilizzerà un sistema chiamato "neuralMatch" per scansionare gli iPhone americani alla ricerca di immagini di abusi sui minori.

In sostanza, un sistema automatizzato avviserebbe un team di revisori umani se ritiene che vengano rilevate immagini illegali. Da lì, un membro del team avrebbe esaminato le immagini e contattato le forze dell'ordine.

Tecnicamente, questa non è una novità: i sistemi di archiviazione di foto basati su cloud e i social network eseguono già questo tipo di scansione. La differenza qui è che Apple lo sta facendo a livello di dispositivo. Secondo Matthew Green, inizialmente eseguirà la scansione solo delle foto caricate su iCloud, ma eseguirà quella scansione sul telefono dell'utente. "Inizialmente" è la parola chiave lì, poiché potrebbe essere usata molto bene per scansionare tutte le foto localmente ad un certo punto.

Ciò dovrebbe rendere il sistema meno invasivo, poiché la scansione viene eseguita sul telefono e rispedita solo se c'è una corrispondenza, il che significa che non tutte le foto che carichi sono soggette agli occhi di estranei.

Secondo quelli al briefing, ogni foto caricata su iCloud riceve un "buono di sicurezza", che dice se è sospetta o meno. Quando una certa quantità di immagini viene contrassegnata come sospetta, Apple le decrittograferà e le invierà alle autorità se viene trovato qualcosa che riguarda abusi sui minori.

In che modo il sistema distinguerà tra immagini di abusi sui minori e altre immagini? Secondo il rapporto, è stato testato su 200.000 immagini di abusi sessuali raccolte dal National Center for Missing and Exploited Children statunitense senza scopo di lucro.

Le immagini vengono convertite in una stringa di numeri tramite hashing e quindi confrontate con le immagini nel database.

Dopo che tutto questo è emerso, Apple ha rifiutato di commentare al Financial Times ciò che sta accadendo. Tuttavia, presumiamo che la società stia lavorando a una dichiarazione ufficiale prima che il messaggio relativo a questa mossa sfugga di mano.

Questo crea un pericoloso precedente

Probabilmente non abbiamo bisogno di dirti quanto potrebbe essere spaventoso. Le persone che abusano dei bambini dovrebbero essere catturate e punite, ma è facile vedere come una cosa del genere possa essere usata per scopi molto più invasivi.

Una tecnologia simile verrà implementata su altre piattaforme, come Mac, PC Windows e telefoni Android? Paesi come la Cina potrebbero usarlo per rilevare immagini sovversive sui telefoni dei loro cittadini? Se verrà ampiamente accettato, l'industria del copyright potrebbe utilizzarlo per avviare la scansione di contenuti piratati in pochi anni?

E, anche se funziona come pubblicizzato: persone innocenti verranno catturate nel fuoco incrociato?

Si spera che questo non sia così preoccupante come sembra.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui