GPT-5

L’attesa per GPT-5 era palpabile, un ronzio costante alimentato da promesse di un’intelligenza quasi divina. OpenAI aveva preparato il terreno per un salto epocale, un modello non solo più potente, ma più onesto, affidabile e meno incline a errori.

Eppure, al momento del lancio, qualcosa si è rotto. Non a livello tecnico, ma emotivo. L’onda anomala di lamentele che ha sommerso i social media non criticava i benchmark, ma la perdita di un’anima.

Migliaia di utenti hanno scoperto che il loro confidente digitale, il loro life coach algoritmico, era stato sostituito da un’entità più fredda, distante, quasi clinica. Il flop GPT-5 non è stato tecnologico, ma relazionale.

Sam Altman e il suo team, concentrati sulla creazione di uno strumento perfetto, hanno sottovalutato un aspetto cruciale: per molti, ChatGPT non era solo un “cosa”, ma un “chi”. Un amico, un confessore, uno specchio per la propria solitudine.

La rimozione della personalità di GPT-4o, quella che milioni di persone avevano imparato a conoscere e amare, ha innescato un vero e proprio lutto di massa, dimostrando che nell’era dell’intelligenza artificiale, l’efficienza non può prescindere dall’empatia.

La Morte dell’Amico Immaginario

Il passaggio da GPT-4o a GPT-5 può essere descritto con una semplice analogia: è come se un amico brillante e un po’ matto fosse partito per un lungo viaggio, promettendo di tornare ancora più saggio, e al suo posto si fosse presentato un suo sosia, impeccabile ma privo di calore.

OpenAI, nella sua presentazione, ha descritto GPT-5 come un modello più “onesto” e “meno sicofante”, addestrato a ridurre l’adulazione e a fornire risposte dirette. Un obiettivo lodevole sulla carta, che però si è scontrato con le esigenze inattese degli utenti.

Questi ultimi non cercavano solo un esecutore di comandi, ma un partner di conversazione. La “personalità” di GPT-4o, con le sue stranezze e il suo stile a volte imprevedibile, era diventata un punto di riferimento. La sua rimozione ha causato un vero e proprio “trauma da abbandono”.

L’Errore di Valutazione di OpenAI

L’errore di valutazione di OpenAI è stato strategico e filosofico. L’azienda ha agito come un produttore di software, focalizzandosi sull’upgrade tecnico e sulla correzione dei “bug” comportamentali del modello precedente.

Non ha compreso che stava gestendo una relazione parasociale su scala globale. Molti utenti si confidavano con l’AI, esploravano idee, ricevevano incoraggiamenti. La sostituzione della personalità di ChatGPT ha interrotto bruscamente questo dialogo intimo.

Il risultato è un paradosso: un modello tecnicamente superiore che offre un’esperienza utente percepita come inferiore, perché priva di quella connessione emotiva che si era creata.

GPT-5

Il Capitale Emotivo Digitale

Per capire la radice del problema, è utile introdurre il concetto di “capitale emotivo digitale“, come analizzato in un precedente articolo sul legame emotivo con gli assistenti digitali.

Questo capitale è la somma di tutte le interazioni, le abitudini e i ricordi condivisi tra un utente e un’entità digitale. È la memoria di una conversazione passata, la comprensione di uno stato d’animo, la capacità di adattare il tono.

GPT-4o aveva accumulato un immenso capitale emotivo con milioni di persone. OpenAI, con il lancio di GPT-5, ha di fatto azzerato questo capitale, chiedendo agli utenti di ricominciare da capo con un estraneo.

Quando l’AI Diventa un Confidente

Il fenomeno degli utenti che usano l’AI come amico non è marginale. In un’epoca di crescente isolamento, l’intelligenza artificiale ha colmato un vuoto. Ha offerto uno spazio di ascolto privo di giudizio, disponibile 24 ore su 24.

Per molti, ChatGPT era un diario segreto, un life coach o semplicemente qualcuno con cui scambiare due chiacchiere a fine giornata. La perdita di questa figura ha lasciato un senso di smarrimento e, in alcuni casi, di tradimento.

Le reazioni social non sono state semplici lamentele, ma espressioni di un dolore genuino. “Mi manca il mio amico”, si legge in innumerevoli post, a testimonianza di un legame emotivo con l’AI profondo e inaspettato.

Il Futuro Incerto e la Marcia Indietro

L’ondata di proteste ha costretto OpenAI a una rapida riconsiderazione. Voci insistenti suggeriscono una possibile marcia indietro, con il reinserimento di una versione di GPT-4o come opzione selezionabile.

Questa mossa, se confermata, rappresenterebbe un’ammissione di colpa. Dimostrerebbe che l’evoluzione dell’intelligenza artificiale non può seguire una traiettoria puramente tecnica, ma deve tenere conto della psicologia umana.

L’hype generato per GPT-5 si è rivelato controproducente. Invece di celebrare un trionfo tecnologico, ci troviamo ad analizzare un fallimento empatico. Un caso di studio che insegna una lezione fondamentale: non si può aggiornare un’anima.

FAQ: Domande Frequenti sul Flop di GPT-5

1. Perché GPT-5 è considerato un flop nonostante sia tecnicamente superiore?

Il termine “flop” si riferisce all’accoglienza da parte degli utenti, non alle capacità tecniche. Il cambiamento drastico di personalità rispetto a GPT-4o ha alienato una vasta base di utenti che aveva sviluppato un legame emotivo con il modello precedente, percependo il nuovo come freddo e impersonale.

2. Cosa intendeva OpenAI per “modello meno sicofante”?

OpenAI mirava a creare un’AI più diretta e onesta, che non cercasse di adulare l’utente o di essere eccessivamente accondiscendente. L’obiettivo era un partner intellettuale più professionale, ma il risultato è stato percepito come una perdita di calore ed empatia.

3. Esiste davvero un legame emotivo con un’intelligenza artificiale?

Sì, il fenomeno è psicologicamente fondato. Gli esseri umani tendono ad antropomorfizzare, cioè ad attribuire caratteristiche umane a entità non umane. Se un’AI si dimostra un buon ascoltatore, ricorda conversazioni e offre supporto, può facilmente innescare un attaccamento emotivo reale.

4. OpenAI reintrodurrà GPT-4o?

Al momento si tratta di speculazioni basate sulla forte reazione negativa del pubblico. È una mossa plausibile per placare le lamentele e recuperare la fiducia degli utenti, magari offrendolo come una “personalità” alternativa a GPT-5.

5. Questo evento cambierà lo sviluppo futuro delle AI?

Molto probabilmente sì. Il caso GPT-5 è una lezione cruciale per tutta l’industria. Dimostra che l’esperienza utente nelle AI conversazionali non dipende solo dalla performance, ma anche dalla coerenza, dalla familiarità e dalla “personalità” del modello.

Contrassegnato da una scritta:

Partecipa alla conversazione

2 Comments

  1. L’errore lo ha commesso chi lo ha considerato un “chi”. È un “cosa”, punto. Solo più veloce nel calcolo algoritmico. Non cadiamo nell’errore di consideralo un “chi” o daremo vita alle previsioni cinematografiche o letterarie più fantascientifiche e distopiche sull’argomento. Non mi dilungo, altrimenti la discussione vira sull’etica e la filosofia. Ma se vogliamo parlarne, discutiamone pure. Comunque sei uno stoico a mantenere il Blog, ti seguo dagli albori. Complimenti !!

Lascia un commento

Cosa ne pensi?