La tecnologia dell’AI sta accelerando molto. Ne sono degli esempi concreti i modelli di machine learning in grado di creare immagini in base a del testo (i prompt) inserito dall’utente, oppure quella generativa come chatGPT e Bard.
Come vi indicavo qualche anno fa, i deepfake sono un esempio di questa tecnologia avanzata che utilizza l’AI per creare video e immagini manipolate, o completamente false, di persone che dicono e fanno cose che non hanno mai detto o fatto. Ma tutto questo ha un prezzo?
Con il crescente utilizzo dei deepfake e dei filtri di bellezza nelle nostre foto, la nostra memoria potrebbe diventare meno affidabile e potremmo ritrovarci a vivere in un’età piena di falsi ricordi. È uno degli allarmi degli ultimi tempi, come riportato nell’indagine di ExpressVPN sui rischi legati ai deepfake.
Il fenomeno dei deepfake
Il fenomeno del deepfake è nato nel 2016 grazie allo sviluppo e alla diffusione delle reti neurali. Queste tecniche avanzate permettono di falsificare i video per aggiungere espressioni facciali e imitare il timbro di voce originale, mediante l’addestramento dei software con le reti neurali e il machine learning. In pratica, i deepfake creano una sorta di clone digitale di una persona, che parla e si muove esattamente come l’originale.
Da quando è nato, il fenomeno dei deepfake è diventato sempre più dilagante. La maggior parte dei finti video sono stati realizzati nell’industria dei contenuti per adulti, con centinaia di video che mostrano star di Hollywood in situazioni intime. Tuttavia, il deepfake viene utilizzato anche nel campo della politica, con la creazione di video falsi di leader politici mentre tengono discorsi mai tenuti o affermano cose controverse.
Negli Stati Uniti, si stanno attuando misure per combattere il problema dei deepfake e delle fake news. La California ha approvato le leggi AB-602 e AB-730 per vietare e punire l’uso delle deepfake per fabbricare video politici. L’obiettivo è evitare il dilagare di notizie false in vista delle prossime campagne elettorali.
L’impatto dei deepfake sulla nostra memoria
L’uso crescente dei deepfake e dei filtri di bellezza nelle nostre foto potrebbe avere un impatto significativo sulla nostra memoria e sulla nostra percezione della realtà. Con la facilità di creare deepfake sempre più convincenti, potremmo diventare sempre meno in grado di distinguere tra ciò che è reale e ciò che è falso, mettendo in discussione i nostri ricordi e la nostra comprensione del mondo che ci circonda.
Fissare dei ricordi con documenti manipolati, in foto o video, può alterare i nostri ricordi e creare false impressioni su eventi e situazioni. Ad esempio, un video deepfake di un politico che pronuncia un discorso controverso potrebbe farci credere che il discorso sia realmente avvenuto, anche se non è così. Questo potrebbe portare a una percezione distorta della realtà e a una maggiore diffusione delle fake news.
L’inganno viene chiamato “Effetto Mandela”. Questi è un fenomeno psicologico che si verifica quando una persona ricorda in modo errato un evento o un dettaglio, come l’ortografia di un marchio o la trama di un film. Questo fenomeno è stato osservato anche prima dell’avvento dei deepfake, ma con la crescente diffusione di questi video falsi, l’Effetto Mandela potrebbe diventare sempre più comune.
I deepfake possono contribuire all’Effetto Mandela creando falsi ricordi di eventi storici, discorsi politici e persino film mai realizzati. Questo potrebbe portare a confusione e incertezza su ciò che è realmente accaduto in passato, erodendo la fiducia del pubblico nei documenti storici e nei media.
L’influenza dei deepfake sui social media
Con l’accesso sempre più facile alle piattaforme di social media, i deepfake possono essere utilizzati per creare post falsi che mostrano celebrità, personaggi pubblici o influencer in situazioni inaspettate o imbarazzanti. La diffusione incontrollata di notizie false attraverso i deepfake può polarizzare ulteriormente la società e creare terreno fertile per le campagne di disinformazione, minando la credibilità dei social media come strumento di comunicazione fondamentale per la democrazia e la coesione sociale.
Grazie all’aumento delle capacità computazionali dei processori, è sempre più facile utilizzare il machine learning e l’intelligenza artificiale per crearli. Inoltre, siamo sempre più abituati a utilizzare filtri sulle nostre foto, come i filtri di bellezza. Questo rende ancora più semplice la creazione di immagini che, nel tempo, potremmo non ricordare di aver modificato, prendendole per vere.
Come riconoscere un deepfake
Per combattere il problema dei deepfake e proteggerci dalla diffusione di disinformazione e falsi ricordi, è fondamentale imparare a riconoscerli. Ecco alcuni suggerimenti per identificare un video falso:
- Distorsioni e trasformazioni facciali: cercate distorsioni di illuminazione e di conversione 3D nel volto e verificate la presenza di incongruenze nella texture.
- Movimenti realistici degli occhi e delle labbra: verificate che le ombre, il colore degli occhi e i movimenti dei nei del viso e delle palpebre siano realistici e che le labbra del soggetto abbiano un aspetto naturale.
- Movimenti e gesti del soggetto: prestate attenzione ai movimenti e ai gesti del soggetto nel video e osservate se appaiono goffi o troppo perfetti.
- Analisi audio: ascoltate attentamente l’audio del video e verificate se la voce ha un suono artificiale o presenta distorsioni.
- Incoerenze nell’illuminazione e nei riflessi: cercate incongruenze nell’illuminazione e nei riflessi che potrebbero non corrispondere all’ambiente o alla posizione della persona nel video o nell’immagine.
- Verifica il contenuto del video: trovate il video originale o cerca altri esempi per verificarne il contenuto e utilizza la ricerca inversa di immagini con strumenti come Google Image Search, TinEye, SauceNAO o Bing Visual Search.
- Analisi contestuale: valutate il contesto in cui il video è stato postato o condiviso, in quanto può indicare se è autentico o meno, e controllate la fonte originale del video.
- Situazioni innaturali o insolite: siate scettici nei confronti dei video che mostrano situazioni insolite o improbabili, come un personaggio famoso che fa qualcosa di insolito o una figura politica che dice qualcosa di controverso.
- Verificate i metadati: controllate i metadati del video per vedere se corrispondono alle affermazioni fatte nel video, come ad esempio l’ora e il luogo della registrazione, ma tenete presente che i metadati possono essere facilmente alterati.
- Rimanete aggiornati: assicuratevi di rimanere aggiornati al meglio sui nuovi sviluppi in questo settore e siate cauti quando condividete dei video che sembrano sospetti o estremamente interessanti per la stampa.
In conclusione
I deepfake rappresentano una minaccia crescente per la nostra memoria e la nostra percezione della realtà. È essenziale che tutti noi restiamo critici e scettici nei confronti delle informazioni che consultiamo e che le aziende tecnologiche e i governi collaborino allo sviluppo di soluzioni per rilevare e prevenire la diffusione di video deepfake.
Nel frattempo, impariamo a riconoscere un deepfake per proteggerci dalla diffusione di disinformazione e falsi ricordi.