Continua a far discutere il sistema EPC (Expanded Protections for Children) di Apple. Un sistema che verte attualmente su due colonne:

  • Il controllo in iMessage delle foto porno mediante un sistema di machine learning
  • La scansione CSAM (Child Sexual Abuse Material) che avviene con le foto caricate in iCloud Foto

Le perplessità arrivano per una questione di privacy e di dubbi sul futuro. Soprattutto ci chiediamo perché Apple abbia deciso di integrare i due sistemi nello stesso momento. Non sarebbe stato opportuno introdurli per fasi?

Se nel sistema di iMessage non c’è intervento umano, in quanto la scansione delle foto per gli account per bambini viene effettuata sul dispositivo, per la scansione CSAM c’è anche l’intervento umano.

Dopo un certo numero di alert attivati su un account, mediante un sistema di hash e banche dati, troviamo che nel processo esiste una fase di intervento umano. In pratica c’è un team di sfortunati che devono controllare se le foto indicate in un account sono collegate o meno alla pedopornografia prima di mandare il tutto al NCMEC (National Center for Missing and Exploited Children).

Ma come è possibile l’intervento umano se Apple ha raccontato fino a ieri che il contenuto dei dispositivi è cifrato e non è possibile leggerne il contenuto? Un’ipotesi per rispondere a questa domanda è nel fatto che alcune aree di iCloud potrebbero non essere cifrate, tra cui le foto. Quindi sono cifrate fintanto si trovano sui dispositivi, ma poi nei server di Apple diventano accessibili.

Questa è solo un’ipotesi e Apple non ha fatto chiarezza in merito. A tal proposito la società ha pubblicato un PDF dove cerca di rispondere a dei dubbi poco interessanti. Nel documento, infatti, la società non fa altro che spiegare in modo schematico ciò che aveva già detto.

Tra gli elementi inediti troviamo il fatto che nella scansione dei messaggi si attiva l’alert ai genitori solo se il bambino ha 12 anni o meno. In pratica se un ragazzino/a ha 13 anni e superiori riceve una sorta di “lascia passare” a esplorare il mondo della sessualità anche se il genitore attiva l’apposita funzione di controllo. In realtà le foto dei nudi saranno oscurate comunque, ma al genitore non arriverà una notifica di allerta. È un po’ come se a 13 anni ci fosse un controllo tra l’adolescente e il dispositivo. Apple non dirà niente al genitore.

Alla domanda se il sistema di scansione potrebbe essere usato per consentire a governi stranieri di trovare elementi o persone scomode, Apple ha semplicemente detto che non lo permetterà. Ha praticamente chiesto di fidarci. Il che potrebbe accogliere o meno la nostra fiducia, ma vorrei proprio vedere cosa accadrebbe se per esempio la Cina chiedesse un “filtro extra” intimando ad Apple di bloccare tutte le vendite nel paese. Apple rimarrà sulla sua linea oppure cederebbe?

Ho riportato la Cina come esempio perché in passato a quanto pare Apple non sembrava così combattiva a rimanere sulla sua linea quando le hanno imposto delle cose. Tipo eliminare l’emoji di Taiwan oppure eliminare le app VPN usate per scavalcare i filtri del monitoraggio cinese sulla navigazione.

Ora che il sistema esiste e funziona, Apple indica un errore ogni 1000 miliardi di scansioni, credere che Apple non cederà alle richieste di qualche governo di usare il sistema per la sorveglianza di massa è una grande prova di fede. Una fede che di certo non trova rassicurazioni in un documento fatto uscire tanto per provare a colmare una falla comunicativa di enorme entità.

Leave a comment

Cosa ne pensi?