Craig Federighi
Craig Federighi

Continuano le polemiche sul sistema EPC (Expanded Protections for Children) messo a punto da Apple per combattere la pedopornografia. Per alcuni è un sistema per il controllo di massa, per altri un valido strumento per scovare mostri schifosi e consegnarli alla giustizia.

Ma a noi interessano poco le prese di posizione. Preferiamo comprendere come stanno i fatti. Riassumendo brevemente Apple ha messo a punto due tecnologie: la prima prevede di usare il machine learning per scovare foto porno nei messaggi dei bambini fino a 13 anni, oscurando queste foto se i loro genitori hanno attivato l’apposita funzione.

Il secondo sistema, chiamato CSAM (Child Sexual Abuse Material), prevede di scansionare le foto e trovare materiale pedoporno schedato nelle banche dati del NCMEC (National Center for Missing and Exploited Children).

Il sistema genera un neurohash per ogni foto caricata su iCloud. Se il neurohash corrisponde a uno delle foto delle banche dati viene generato un Safety Voucher. Dopo un tot di Safety Voucher l’account viene vagliato da un team preposto e se le foto sono vietate l’account viene bloccato e segnalato.

A tal proposito era sorta una domanda irrisolta: se Apple ha raccontato fino a ora che ciò che accade sull’iPhone resta nell’iPhone, con tanto di campagne sulla privacy, come mai adesso diventa possibile vedere il contenuto delle foto?

A tal proposito la società ha scomodato Craig Federighi, vice presidente per il software di Apple, che è stato chiamato a parlare al Wall Street Journal per chiarire alcuni aspetti. E in effetti risponde alla domanda.

In pratica Federighi ha confermato che ciò che avviene nell’iPhone resta nell’iPhone. Tutto il contenuto nel dispositivo è cifrato. Nessuno può leggerlo, neanche Apple. Dove casca l’asino?

Il problema, se vogliamo chiamarlo così, è iCloud. Il contenuto caricato in iCloud non è cifrato. È l’unico territorio dove Apple può dare supporto alle autorità. Nonostante la società promise tempo fa che anche iCloud sarebbe stato cifrato, ha poi abbandonato l’idea proprio per non avere problemi con le autorità. In altre parole se non fosse per iCloud Apple non potrebbe accedere a nessun dato degli utenti.

Quindi il sistema CSAM funziona in questo modo: sull’iPhone viene solo generato il neurohash grazie all’uso del potente processore Neural Engine dei dispositivi di Apple. Quindi fino a questo punto il contenuto della foto viene letto, ma in modo cifrato e dal cervello del Neural Engine. Nessuno fino a questo punto può leggere il contenuto del dato se non l’utente.

Quando il contenuto viene caricato su iCloud non è più cifrato. All’immagine caricata nei server di Apple resta il neurohash generato dal dispositivo. Se vi state chiedendo perché il neurohash non venga generato direttamente nei server la risposta è semplice: usando la potenza di calcolo del dispositivo Apple risparmia potenza di calcolo sui server. Si trova le foto già hashate (termine palesemente errato).

Quindi se la foto con neurohash riceve un match con il database del CSAM, l’immagine viene segnalata con un Safety Voucher. Dopo un tot di SV un team umano vaglia le immagini. Può vederle perché non sono cifrate. Inoltre può vedere solo quelle foto e non tutte. Il mittente delle immagini resta cifrato, così come la provenienza.

Ma quindi il sistema non diventa completamente inutile? Visto che tutti sanno come funziona, ai pedofili non basterebbe semplicemente non usare il caricamento delle immagini su iCloud per rendere il controllo completamente inefficace?

Questa è una domanda che la giornalista del WSJ non ha posto a Federighi e di cui probabilmente non avremo risposta.

Update 16/08/21: dopo la pubblicazione di un nuovo documento da parte di Apple devo ritrattare un’informazione scritta prima. Le foto caricate su iCloud sono cifrate, ma per il sistema CSAM Apple applica una chiave ottenuta dai Safety Voucher che consente di ricostruire l’immagine in esso contenuta anche se in bassa risoluzione. Questo significa che solo quelle foto segnalate potranno essere viste e tutte le altre rimaranno in forma cifrata.

Leave a comment

Cosa ne pensi?