Il sistema CSAM
Il diagramma che spiega come Apple manutiene il sistema CSAM

Vi ricordate del sistema CSAM che Apple voleva integrare lo scorso anno? Il Child Sexual Abuse Material è un sistema che permette di scansionare le foto contenute nei dispositivi, alla caccia di foto pedo pornografiche, al fine di denunciarne i possessori.

Da una recente bozza in studio presso la Commissione Europea, si evince che il sistema CSAM potrebbe diventare presto obbligatorio e quindi nessun grande operatore, da Apple a Google, potranno sottrarvi.

Ma come sempre, uniamo i puntini.

Che cos’è il sistema CSAM?

Nell’agosto del 2021 Apple annunciò di lavorare all’integrazione del filtro CSAM sulle foto presenti su iCloud. Grazie alla collaborazione dei database del National Center for Missing and Exploited Children, la società sarebbe stata in grado di individuare le foto degli abusi sui bambini.

Alla base un sistema in grado di assegnare un hash a ogni foto prima di essere caricata su iCloud. Qui la foto viene cifrata, ma l’hash generato viene registrato dal sistema.

Questo codice numerico viene generato mediante un sofisticato algoritmo. In pratica un sistema di machine learning, e non persone fisiche, scansiona il contenuto dell’immagine generando un codice. Se questo codice corrisponde allo stesso codice presente nei database del NCMEC, si genera un Safety Vouchers, cioè una segnalazione.

Dopo un certo numero di Safety Voucher in capo a un account, parte il controllo manuale da parte di un team di persone. Se dal controllo manuale si verifica il check positivo sulle immagini, parte la denuncia sulla persona collegata all’account in cui sono presenti le foto pedo porno.

I dubbi che hanno portato Apple a congelare il sistema CSAM

Expanded Protections for Children
Ecco come funziona il sistema Expanded Protections for Children

Nel settembre dello stesso anno, Apple decise di fermare l’integrazione del sistema a causa delle tante critiche generate, rimandandolo a data non ancora identificata.

Alla base pare esserci stata la cattiva gestione delle informazioni in merito questo argomento molto delicato. Soprattutto alla luce degli enormi sforzi che la società sta dispiegando per proteggere la privacy degli utenti.

L’arrivo del sistema CSAM fu annunciato insieme a un altro sistema: la scansione delle foto in iMessage negli account per i minori di 14 anni, per oscurare le foto porno ricevute nei messaggi. Tutte queste informazioni insieme generarono non pochi dubbi, tanto da costringere Craig Federighi a metterci la faccia per fare chiarezza.

Caos che costò anche il posto a Stella Low, l’allora vice presidente alle comunicazioni di Apple.

Alla base delle accuse c’era il rischio di modificare il sistema, in futuro, per tracciare anche altri hash. Nello specifico la comunità di esperti si chiedeva se governi poco liberali potessero chiedere ad Apple di usare questo sistema di machine learning per tracciare foto non volute dai regimi.

Cosa dice l’Unione Europea in merito?

Ecco cosa riporta la bozza ottenuta da Euractiv.

I fornitori di servizi di hosting e i fornitori di servizi di comunicazione interpersonale che hanno ricevuto un ordine di rilevamento lo eseguono installando e facendo funzionare le tecnologie per la rilevazione del materiale sull’abuso sessuale dei minori.

La bozza indica anche che la rilevazione dei materiali deve essere autorizzata da un’autorità giudiziale o da un’amministrazione indipendente.

In altre parole l’Unione Europea non indica di attivare di base il sistema CSAM su tutti i server, ma solo di rendere disponibile il filtro e fornirlo qualora un’autorità competente chiedesse una scansione sui sistemi di persone soggette ad indagini, per comprendere se ci sono immagini in merito agli abusi sui minori.

Essendo una bozza, allo stato finale potrebbero cambiare in alcuni articoli e trasformarsi.

Le prime critiche degli esperti

Non si comprende come e chi debba integrare questi strumenti tecnologici di scansione per le immagini e materiali generici. La bozza indica tutti i servizi di hosting e i fornitori di servizi di comunicazione.

Quindi in teoria qualsiasi servizio in grado di gestire immagini in cloud. Immagini che quasi sempre sono cifrate end-to-end. Pensiamo a tutti i servizi di messaggistica, come WhatsApp e Telegram, fino a Google Photo, iCloud, Facebook, Instagram e tutti gli altri.

Will Chatcart, capo di WhatsApp in Meta, si è infatti espresso negativamente sulla bozza della Commissione Europea, in quanto questa mina la cifratura end-to-end delle comunicazioni. Per scansionare le immagini, infatti, non tutti gli operatori saranno in grado di implementare un sistema di machine learning come quello di Apple.

Matthew Green, professore di crittografia nell’Università Johns Hopkins, arriva a puntare il dito contro Apple, accusandola di aver fatto lobby per spingere l’Unione Europea a imporre il sistema CSAM.

Prima di diventare un regolamento, la bozza dovrà essere discussa da tutti i paesi membri, quindi la sua trasformazione in legge potrebbe richiedere ancora molto tempo.

Leave a comment

Cosa ne pensi?