TikTok e AI

Il dibattito su TikTok e l’uso dell’AI non è più astratto.
Chi apre il feed oggi si trova sempre più spesso davanti a video generati dall’intelligenza artificiale: città che non esistono, catastrofi mai avvenute, celebrità che non hanno mai pronunciato quelle frasi.

Per molti utenti l’effetto, almeno all’inizio, è lo stesso di sempre: stupore.
Video iper-realistici, montaggi spettacolari, storie impossibili che scorrono a velocità da binge-watching. Ma dietro quelle clip, spesso, non c’è un creator in senso tradizionale.


C’è un modello come Sora di OpenAI, addestrato per trasformare prompt di testo in filmati ad alto impatto visivo.1Sora è un modello di generazione video sviluppato da OpenAI, capace di creare clip realistiche a partire da descrizioni testuali complesse.

Il punto critico non è solo la presenza dei contenuti sintetici, ma il modo in cui vengono presentati.
Su TikTok esistono linee guida precise per i contenuti generati dall’AI: il social chiede espressamente che i video artificiali siano etichettati in modo chiaro quando possono indurre in errore o riguardano persone reali, eventi o figure sensibili.2TikTok ha pubblicato una sezione dedicata ai contenuti generati con l’AI, accessibile da questa pagina di supporto.
Eppure, molti creator rimuovono watermark, tag e logo di Sora, spacciando il prodotto finale per “reale”.

Il rischio è evidente: se l’algoritmo premia ciò che genera engagement e stupore, ma quello stupore nasce da video TikTok finti non dichiarati, il patto di fiducia tra piattaforma e utenti si logora.
La domanda non è più se i social useranno l’AI, ma se l’abuso di video generati dall’intelligenza artificiale possa svuotare il feed di significato, fino a erodere la base di utenti attivi.

La stessa Apple, mentre prepara Apple Intelligence e porta l’AI dentro iPhone, iPad e Mac, si muove sul filo di un equilibrio simile: potenziare l’esperienza senza distruggere la fiducia degli utenti.3Su Melamorsicata.it sono già presenti diversi approfondimenti su Apple Intelligence e l’impatto dell’AI nell’ecosistema Apple, come quelli raccolti nella sezione “Apple Intelligence e Intelligenza Artificiale”.
Nel mondo dei social, dove la soglia di attenzione è ancora più fragile, il margine di errore è più stretto.

Perché i video virali funzionano davvero

Quando si parla di TikTok AI, il punto non è solo la tecnologia, ma la dinamica psicologica.
Gli utenti fermano il pollice per tre motivi principali: sorpresa, identificazione, utilità.

La sorpresa è la valuta principale.
Un video assurdo, un evento raro, un comportamento fuori dall’ordinario: l’algoritmo impara che quel contenuto ferma lo scroll e lo ripropone a catena.
Se quella sorpresa è alimentata da video generati dall’intelligenza artificiale, il sistema continua a funzionare, almeno finché lo spettatore crede che ciò che vede abbia un legame con la realtà.

Ma l’attenzione non è infinita.
Quando l’utente capisce che una parte consistente del feed è fatta di simulazioni – disastri climatici inventati, personaggi storici che parlano al presente, città sommerse che non esistono – il meccanismo cambia: lo stupore lascia spazio al sospetto.

È lo stesso processo visto con i deepfake: la prima volta incuriosiscono, dopo un po’ generano saturazione.

Qui entra in gioco la disinformazione con video AI.
In un anno come il 2024-2025, segnato da elezioni globali e tensioni geopolitiche, i contenuti sintetici sono stati indicati come terreno fertile per fake news e manipolazione.4Diversi osservatori hanno evidenziato come il 2024-2025 sia un periodo critico per la disinformazione online alimentata dall’AI, specie sui social a scorrimento verticale.
Se TikTok non controlla adeguatamente questi contenuti, il feed rischia di somigliare a un flusso di “realtà alternative”.

Video AI 1

L’effetto saturazione: quando i video TikTok finti smettono di stupire

La tesi di partenza è semplice: se il feed viene invaso da video TikTok finti, lo stupore sparisce.
In pratica, succede una cosa simile a quanto visto con i filtri fotografici su Instagram.

All’inizio, il filtro rendeva una foto “speciale”.
Dopo anni, un feed pieno di volti levigati e cieli saturi ha prodotto l’effetto opposto: senso di artificiale, distanza emotiva, noia. L’originale è diventato raro, e quindi di nuovo interessante.

Con i video generati dall’intelligenza artificiale il rischio è ancora più alto, perché l’AI può produrre qualsiasi scena, con qualsiasi soggetto, a costo marginale quasi zero.
Se un tempo un video assurdo implicava una situazione reale assurda, oggi basta un prompt scritto bene.

Il feed si riempie di:

  • animali che fanno cose impossibili
  • scenari catastrofici sempre più estremi
  • versioni alternative della storia con personaggi noti in contesti improbabili

La prima volta l’utente reagisce con un “wow”.
Alla decima, l’effetto è paradossale: tutto è straordinario, quindi niente lo è davvero.

Questo non significa che TikTok AI sia per forza destinata a “uccidere” TikTok. Significa che il modello attuale, basato su stupore continuo e autenticità percepita, è sotto pressione.

Se l’utente smette di credere che ciò che vede abbia un legame con la realtà, l’algoritmo deve trovare un nuovo equilibrio: meno “shock”, più contesto.

Come potrebbero reagire TikTok e gli altri social

TikTok ha alcune mosse possibili per non farsi travolgere dalla valanga di video generati dall’intelligenza artificiale:

  1. Rendere obbligatorie e visibili le etichette AI
    Non solo un flag in un menu nascosto, ma badge chiari sul video, magari con un tap per capire quale modello è stato usato.
  2. Creare feed separati
    Un flusso “AI” dichiarato, simile a quello che Meta sta sperimentando con Vibes, e un feed principale dove i contenuti sintetici sono ammessi ma ben riconoscibili.
  3. Premiare l’autenticità
    Segnali di ranking che favoriscano contenuti reali, specie quando riguardano news, eventi sensibili o temi politici.
  4. Strumenti di verifica integrati
    Partnership con realtà di fact checking e overlay che informano quando un video potrebbe essere generato artificialmente, sfruttando watermark e metadati.

Queste scelte non eliminerebbero la disinformazione con video AI, ma cambierebbero il contratto implicito con l’utente: non più “fidati del feed”, ma “sai cosa stai guardando”.

TikTok morirà per colpa dell’AI?

In sintesi, la risposta più onesta è: è molto improbabile.
Più realistico è immaginare che TikTok cambi natura:

  • da luogo del “qui e ora” a flusso ibrido di realtà e finzione
  • da specchio della cultura giovanile a laboratorio di estetiche generate
  • da feed di vite reali a impianto di intrattenimento sintetico

La vera discriminante sarà la gestione della fiducia.
Un social può anche riempirsi di contenuti artificiali, se l’utente lo sa, lo accetta e ne capisce il contesto.
Se invece la sorpresa nasce dal trucco non dichiarato, il gioco dura poco.

FAQ

I video AI su TikTok violano sempre le regole?

No.

TikTok permette i video generati dall’intelligenza artificiale, purché rispettino le policy, siano etichettati quando possono ingannare e non vengano usati per deepfake dannosi o disinformazione.

Il problema nasce quando creator rimuovono watermark e indicazioni sull’origine del contenuto.

Come si riconoscono i video TikTok finti generati con AI?

Non esiste un metodo infallibile, ma alcuni indizi sono comuni:
movimenti leggermente innaturali, dettagli che “saltano” tra un frame e l’altro, testi incoerenti su cartelli o cartelloni, proporzioni anatomiche strane.

Con modelli come Sora di OpenAI su TikTok questi difetti stanno diminuendo, quindi serviranno strumenti automatici e alfabetizzazione visiva. Su alcuni di essi si può notare un rettangolo offuscato su un angolo, dove dovrebbe esserci il logo di Sora spesso nascosto.

TikTok etichetta automaticamente i contenuti AI?

TikTok dichiara di usare sia strumenti automatici sia segnalazioni umane per individuare contenuti generati o manipolati dall’AI, applicando etichette informative.

Chiede anche ai creator di usare strumenti interni di marcatura quando caricano contenuti sintetici.5Le indicazioni aggiornate sono consultabili nella sezione di supporto sui contenuti AI, raggiungibile da questa pagina.

I social creeranno feed separati per contenuti AI?

Meta ha già mosso un passo in questa direzione con feed dedicati a clip generate dall’AI.

TikTok per ora preferisce l’approccio delle etichette, ma l’aumento della produzione sintetica potrebbe portare a sperimentare spazi separati o filtri più granulari nel feed principale.

L’AI toglierà lavoro ai creator umani su TikTok?

Alcune tipologie di contenuto – scenari spettacolari, video super prodotti – saranno sempre più facili da replicare con AI, riducendo il vantaggio competitivo di chi lavora solo su quell’estetica.

Resteranno preziose la personalità, la narrazione, il rapporto diretto con la community, aspetti che l’AI può supportare ma non sostituire in modo credibile.

Riferimenti:
  • 1
    Sora è un modello di generazione video sviluppato da OpenAI, capace di creare clip realistiche a partire da descrizioni testuali complesse.
  • 2
    TikTok ha pubblicato una sezione dedicata ai contenuti generati con l’AI, accessibile da questa pagina di supporto.
  • 3
    Su Melamorsicata.it sono già presenti diversi approfondimenti su Apple Intelligence e l’impatto dell’AI nell’ecosistema Apple, come quelli raccolti nella sezione “Apple Intelligence e Intelligenza Artificiale”.
  • 4
    Diversi osservatori hanno evidenziato come il 2024-2025 sia un periodo critico per la disinformazione online alimentata dall’AI, specie sui social a scorrimento verticale.
  • 5
    Le indicazioni aggiornate sono consultabili nella sezione di supporto sui contenuti AI, raggiungibile da questa pagina.
Contrassegnato da una scritta:

Lascia un commento

Cosa ne pensi?