Sistema csam
Il diagramma che spiega come Apple manutiene il sistema CSAM

Nel 2021, Apple tentò di integrare il sistema di Materiali di Abuso Sessuale Infantile (CSAM) per scansionare le foto in iCloud. Il sistema era stato progettato per garantire la privacy degli utenti e individuare coloro che diffondevano pornografia infantile.

Alla base c’era un sistema di synthetic voucher, vale a dire dei token generati dall’individuazione di foto sensibili. Dopo un certo numero di voucher partiva l’alert sugli account che poi dovevano essere controllati da personale umano.

A tal proposito alcune persone hanno sollevato dubbi sul fatto che il sistema potesse essere utilizzato e adattato per scovare altre foto per segnalare persone scomode, come i dissidenti politici.

Il sistema CSAM

Il sistema CSAM (Child Sexual Abuse Material) di Apple è stato progettato con l’intento di combattere la diffusione di materiale di abuso sessuale infantile. Questo sistema permetteva di scansionare le foto caricate su iCloud dagli utenti, alla ricerca di corrispondenze con un atabase di immagini note. Database gestito da enti indipendenti.

In caso di corrispondenze, le immagini venivano segnalate per un ulteriore controllo, al fine di identificare e perseguire coloro che diffondevano pornografia infantile.

Le preoccupazioni sulla privacy

Nonostante l’obiettivo nobile, il sistema CSAM ha suscitato molte preoccupazioni in merito alla privacy degli utenti. Alcuni esperti di sicurezza informatica e critici dell’industria tecnologica hanno sollevato dubbi sul fatto che il sistema potesse essere utilizzato per scopi diversi da quelli originalmente previsti.

In particolare, è stato suggerito che il sistema CSAM potesse essere adattato per scovare altre foto e segnalare persone scomode, come i dissidenti politici, creando un grande strumento di controllo di massa.

Questo avrebbe potuto avvenire se un governo o un’altra entità avesse avuto accesso al database di immagini utilizzato dal sistema CSAM e avesse aggiunto al database immagini di manifesti di campagne politiche o simili.

La risposta di Erik Neuenschwander

In risposta a queste preoccupazioni, Erik Neuenschwander, direttore della privacy di Apple, ha recentemente ammesso che in effetti il sistema CSAM poteva essere modificato in questo modo.

Neuenschwander ha dichiarato:

Il sistema CSAM potrebbe creare il potenziale per una tendenza volta a creare conseguenze non intenzionali. La scansione di un tipo di contenuto, ad esempio, apre la porta alla sorveglianza di massa e potrebbe creare il desiderio di cercare messaggi crittografati tra i tipi di contenuto.

La posizione di Apple sulla privacy e i dati degli utenti

Apple ha sempre posto grande enfasi sulla protezione della privacy e dei dati dei suoi utenti. L’azienda ha speso anni a costruire la sua reputazione come un baluardo della privacy nel settore dell’elettronica, introducendo funzioni di sicurezza come la crittografia end-to-end e il blocco dei tracker di terze parti.

Molti critici hanno sostenuto che, sebbene il sistema CSAM fosse stato progettato con le migliori intenzioni, la sua implementazione poteva avere gravi conseguenze per la privacy degli utenti.

Il futuro del sistema CSAM

Dopo aver ricevuto numerose critiche e preoccupazioni sulla privacy, Apple ha deciso di cestinare il sistema CSAM. Il rischio era distruggere gli anni di sforzo e gli investimenti miliardari sulla protezione della privacy degli utenti, oltre ad appannare il brand della società.

L’unica possibilità del sistema CSAM di tornare in auge è mediante una normativa europea. Nel 2022 nella Commissione Europea ha iniziato a circolare una bozza di regolamento per obbligare le aziende operanti sul web di implementare strumenti per la lotta alla pedopornografia e la protezione dei minori.

Iter legislativo che non si è concluso.

In conclusione

La decisione di Apple di abbandonare il sistema CSAM è un punto di svolta significativo nella discussione sulla privacy digitale. Mentre l’intento originale di combattere la pornografia infantile è nobile, le implicazioni per la privacy degli utenti erano troppo gravi per essere ignorate.

Erik Neuenschwander, direttore della privacy di Apple, ha ammesso che il sistema poteva essere sfruttato per scopi diversi, aprendo la porta a una sorveglianza di massa.

Apple ha costruito la sua reputazione come un baluardo della privacy, introducendo funzioni come la crittografia end-to-end e il blocco dei tracker di terze parti. L’abbandono del sistema CSAM è un segno che l’azienda è disposta a mettere la privacy degli utenti al primo posto, anche a costo di rinunciare a un progetto ben intenzionato.

Leave a comment

Cosa ne pensi?