Ecco come funziona il sistema Expanded Protections for Children
Ecco come funziona il sistema Expanded Protections for Children

Sono anni che Apple investe nella privacy. A oggi la società ha saputo mantenere questa delicata promessa non sbagliando mai. Non cedendo neanche di fronte le richieste dell’FBI per contenuti coperti da cifratura. A tal proposito la società ritiene di avere abbastanza credibilità nel settore dal presentare il sistema EPC (Expanded Protections for Children).

Si tratta di un sistema anti pedofilia. I genitori possono infatti attivare un Apple ID per i propri bambini che avrà delle caratteristiche “per bambini” fino al compimento del 13° anno di età. All’età di 14 anni l’account diventa normale. Prima di allora sarà soggetto ai controlli parentali nei sistemi operativi di Apple grazie all’aggiunta di questi account alla sezione In Famiglia.

Uno di questi controlli sarà l’EPC a partire dalla fine di quest’anno e solo negli Stati Uniti per adesso. Ma in cosa consiste? In pratica i genitori riceveranno una notifica se i propri bambini riceveranno foto sconce sui dispositivi.

Alla base c’è un sistema fatto di reti neurali che richiedono iOS 15 o Monterey. Sistema che sarà usato anche per scovare pedofili e malintenzionati. Ecco come funziona: il National Center for Missing and Exploited Children possiede un database di immagini pedopornografiche chiamato CSAM (Child Sexual Abuse Material).

Questo database associa un hash a ogni immagine. Una sorta di codice NFT che permette di sapere con certezza che si tratta di un’immagine censita negli archivi del NCMEC.

Prima che un’immagine sia caricata in iCloud, il dispositivo in locale effettua un controllo sull’immagine generando un hash mediante il controllo con il machine learning. In pratica avviene una scansione dell’immagine e viene generato l’hash. Se questo hash corrisponde con uno degli hash del CSAM viene generato un Safety Vouchers: in pratica scatta un allarme con delle informazioni cifrate.

Dopo un certo numero di Safety Vouchers generati su un dispositivo scatta la segnalazione ad Apple. Qui un team di persone valuteranno le immagini e se il controllo manuale dà esito positivo, l’utenza viene bloccata e viene avvisato il NCMEC che immagino denuncerà tutto alle autorità.

In iMessage, invece, avviene una scansione con il machine learning. Se l’immagine contiene porno, la foto viene oscurata e arriva un avviso al genitore. Inoltre Apple ha annunciato che un sistema di hash sarà integrato anche in Siri e nel motore di ricerca. Se ci saranno richieste “strane” a Siri o nel motore di ricerca si attiva l’allarme come per le foto.

Tutto questo di recente sembra sorprendere, ma in realtà il sistema è già in uso da tempo. Personalmente ne avevo dato notizia già l’anno scorso. La differenza è che adesso viene applicato per funzioni in iOS accessibili anche ai genitori.

Al di là del fingere sorpresa, ovviamente la copertura mediatica fa rizzare le antenne un po’ a tutti. Questo perché è ormai certificato il fatto che Apple veda tutte le foto dei suoi utenti, anche se in modo automatico e cifrato. Questo lascia innumerevoli questioni in sospeso a cui Apple non risponderà. Domande come:

  • Cosa succede con i falsi positivi? Qualcuno di Apple vedrà foto private anche se non pericolose?
  • Ogni quanti casi di check positivi si viene segnalati?
  • La società ha dichiarato che se si spegne la sincronizzazione con iCloud il check non avviene. Questo non potrebbe rendere vano il controllo? Insomma a un pedofilo basterebbe disattivare la sincronizzazione per farla franca.
  • Come fa il sistema a scansionare porno pericoloso da quello professionale? Mi spiego meglio: a 12 e 13 anni capita di avere certe curiosità e si vanno a cercare dei materiali realizzati da professionisti del settore. I ragazzini curiosi saranno tutti segnalati ai propri genitori?

Inoltre il sistema, per quanto utile per scovare dei mostri malati e salvaguardare l’innocenza dei bambini, non potrebbe essere usato anche per altro?

Edward Snowden, che è un po’ di parte, non ha dubbi: Apple ha realizzato un sistema di sorveglianza di massa. Ora controllano il pedoporno, ma domani potrebbero controllare se nelle foto c’è altro. Considerando miliardi di dispositivi nel mondo, il controllo a tappeto potrebbe essere completo.

Della stessa opinione è anche l’EFF. Ora che il sistema di scansione delle foto esiste, cosa potrebbe frenare la Cina a obbligare per legge a trovare determinate persone, contenuti, frasi e così via? Come sappiamo Apple rispetta sempre le leggi per evitare di avere problemi nella commercializzazione dei prodotti.

E se Apple fosse ingaggiata dalla CIA per un segreto programma di ricerca dei terroristi? La distribuzione in massa di prodotti Apple, a oggi in oltre 1,6 miliardi di dispositivi, potrebbe trasformare l’ecosistema in un enorme grande fratello.

Dubbi tutti leciti. Apple ci chiede di fidarci ciecamente facendo ricorso al credito e all’affidabilità costruita negli ultimi anni. La domanda che si dovrà porre un possibile cliente di Apple sarà se fidarsi o non fidarsi della società. L’iPhone è l’oggetto ideale per proteggere la propria privacy o uno strumento di controllo di massa?

Update 03/09/21: Apple ha deciso di rimandare l’integrazione del sistema CSAM per prendere in considerazione tutti i feedback ricevuti nelle ultime settimane.

Leave a comment

Cosa ne pensi?