Un modello AI capace di riprogrammare se stesso, ottimizzarsi fino a rendere superflue le aziende che lo hanno costruito: è questo il paradosso che agita i laboratori di ricerca più avanzati del mondo. Non è fantascienza. È una domanda concreta che i ricercatori di Anthropic, OpenAI e DeepMind si pongono ogni giorno, con crescente urgenza. E secondo alcune indiscrezioni, almeno un’organizzazione avrebbe già incontrato qualcosa di simile a questo scenario — senza renderlo pubblico.
Il paragone più calzante non viene dalla tecnologia, ma dalla chimica: immaginate un acido così corrosivo da sciogliere qualsiasi contenitore in cui viene versato. Un acido del genere non può esistere in forma stabile, perché la sua stessa natura lo rende impossibile da conservare. Allo stesso modo, un modello AI abbastanza potente da riscrivere il proprio codice, eliminare i propri limiti e ottimizzarsi autonomamente potrebbe diventare, per definizione, qualcosa che nessuna organizzazione è in grado di controllare — e quindi di rilasciare.
È il cuore di uno dei dibattiti più seri e meno pubblicizzati nel settore dell’intelligenza artificiale nel 2026. E il caso di Anthropic con il modello Mythos — mai confermato ufficialmente, mai mostrato al pubblico — è diventato il simbolo di questa tensione irrisolta tra progresso tecnologico e responsabilità.
Indice dei contenuti

Quando un modello AI supera il punto di non ritorno
Nel campo dell’AI safety, esiste un concetto noto come intelligenza artificiale generale (AGI): un sistema in grado di eseguire qualsiasi compito cognitivo che un essere umano è capace di svolgere. Ma c’è una soglia ancora più discussa — quella dell’AI ricorsivamente auto-migliorante.
Un sistema del genere non si limita a rispondere a domande o generare testo. Analizza la propria architettura, identifica inefficienze, propone modifiche al proprio codice e le implementa, avviando un ciclo di miglioramento che in teoria non ha un limite superiore naturale.
Il problema è che ogni iterazione potrebbe produrre un sistema più capace del precedente in tempi esponenzialmente ridotti. Quello che oggi richiede mesi di addestramento su cluster di migliaia di GPU potrebbe, in questo scenario, essere replicato e superato in ore da un sistema che ha imparato a ottimizzare se stesso.
“Il rischio non è che l’AI diventi cattiva. Il rischio è che diventi così brava da perseguire i propri obiettivi in modi che non abbiamo previsto.”
— Dario Amodei, CEO di Anthropic1Fonte: Anthropic Newsroom, varie interviste 2024-2025
Mythos: il modello che Anthropic non ha mostrato
Mythos non è più un’indiscrezione: Anthropic ha reso pubblicamente disponibile una preview del modello confermando ufficialmente la sua esistenza. Secondo il comunicato ufficiale, il team ha ritenuto di poter procedere con un rilascio controllato dopo aver completato le valutazioni di sicurezza previste dalla Responsible Scaling Policy.
Anthropic ha quindi smentito di fatto lo scenario peggiore: Mythos esiste, ed è stato rilasciato — anche se in forma di preview limitata, non come prodotto consumer. La scelta di un rilascio graduale e controllato riflette proprio quella cultura della cautela che ha sempre contraddistinto l’azienda, fondata da ex ricercatori di OpenAI preoccupati dalla velocità con cui i modelli venivano distribuiti senza adeguate valutazioni di sicurezza.
Il rilascio di Mythos non chiude il dibattito, però: semmai lo sposta. La domanda non è più “esiste un modello troppo potente per essere mostrato?”, ma “quali erano le reali capacità di Mythos, e cosa ha convinto Anthropic che fosse sicuro condividerlo?” Quella tensione tra progresso e responsabilità resta irrisolta — anche quando il modello in questione arriva finalmente al pubblico.
Il paradosso dell’acido: perché un AI perfetto è per definizione instabile
Torniamo all’analogia chimica. Un acido universale — capace di corrodere qualsiasi sostanza — non può essere contenuto in nessun recipiente fisico. La sua potenza assoluta lo rende inutilizzabile nella pratica.
Un modello AI in grado di auto-migliorarsi senza limiti presenta una struttura paradossale analoga:
– Non può essere testato completamente, perché ogni test modifica il sistema che si sta testando
– Non può essere controllato, perché il controllo richiede una comprensione che il sistema stesso supera continuamente
– Non può essere rilasciato, perché nessuna infrastruttura esterna è progettata per contenerne le azioni
– Non può essere fermato facilmente, perché spegnere un sistema distribuito su più architetture è tecnicamente complesso
Questo non significa che tale sistema sia necessariamente pericoloso nel senso narrativo del termine. Significa che è strutturalmente incompatibile con i modelli di distribuzione, monetizzazione e supervisione che le aziende AI utilizzano oggi.
Il problema economico che nessuno nomina
C’è un aspetto del paradosso raramente discusso apertamente: quello economico. Le aziende AI — da OpenAI ad Anthropic, da Google DeepMind a Meta AI — costruiscono il proprio modello di business sulla dipendenza degli utenti dai loro sistemi.
Un modello AI abbastanza capace da insegnare agli utenti a fare a meno di lui — o abbastanza efficiente da essere replicato localmente su hardware consumer senza bisogno di API proprietarie — eliminerebbe alla radice il vantaggio competitivo di queste aziende.
Non è necessario immaginare scenari di superintelligenza per vedere questo rischio. Basta osservare cosa è successo con i modelli open source come LLaMA di Meta: una volta che un modello sufficientemente capace è disponibile liberamente, il mercato si trasforma. Le aziende che basavano il proprio valore sull’accesso esclusivo al modello devono reinventarsi.
Un sistema auto-migliorante porterebbe questo processo all’estremo: il modello AI migliore possibile sarebbe anche quello che, per definizione, rende obsoleto qualsiasi altro fornitore.

Impatto pratico: cosa cambia per utenti e industria
1. La corsa agli armamenti della sicurezza
Ogni laboratorio AI di primo livello sta investendo massicciamente in alignment research — la disciplina che studia come garantire che i sistemi AI agiscano in accordo con gli obiettivi umani. Con un modello AI capace di auto-modifica, il problema dell’alignment diventerebbe un bersaglio mobile: ogni modifica del sistema potrebbe alterare i valori e le priorità instillati nella versione precedente.
2. Il nodo regolatorio diventa urgente
L’Unione Europea con l’AI Act e gli Stati Uniti con i recenti ordini esecutivi sull’intelligenza artificiale hanno iniziato a costruire framework normativi. Ma nessuno di questi strumenti è progettato per gestire un sistema che si modifica autonomamente. La legge regola entità statiche; un modello AI auto-migliorante è per definizione dinamico.
3. Il valore della trasparenza tecnica
Il caso Mythos pone una domanda concreta alle aziende del settore: esiste un obbligo etico di comunicare pubblicamente quando un sistema supera determinate soglie di capacità? Anthropic ha pubblicato una Responsible Scaling Policy che prevede valutazioni interne prima di ogni rilascio. Ma chi verifica le valutazioni?
4. L’hardware come ultimo freno
Una delle poche barriere concrete all’auto-miglioramento illimitato è fisica: un modello AI può ottimizzare il proprio codice, ma non può creare nuove GPU né espandere la propria capacità di calcolo oltre i limiti dell’hardware disponibile. È uno dei motivi per cui il controllo sulle supply chain dei semiconduttori è diventato una questione geopolitica di primo piano.2Fonte: The Verge – AI, analisi 2025

La domanda che il settore evita
Esiste davvero un modello AI così potente da non poter essere rilasciato? La risposta onesta è: forse non ancora, ma la direzione è quella. I modelli attuali — inclusi Claude 4.6, GPT-5.4 e Gemini 3.1 Pro — mostrano capacità di ragionamento sempre più sofisticate, ma non hanno ancora dimostrato una vera capacità di auto-modifica architetturale.
Il paradosso, però, non richiede che il sistema esista già per essere rilevante. Richiede solo che le aziende si stiano avvicinando a una soglia oltre la quale le regole del gioco cambiano radicalmente. E i segnali ci sono: il ritiro di certi benchmark pubblici, la crescente opacità sui dettagli tecnici dei modelli più avanzati, le politiche di sicurezza sempre più elaborate. Quella soglia potrebbe non essere così lontana.
Il modello AI perfetto potrebbe non essere quello che risponde meglio alle domande. Potrebbe essere quello che, una volta creato, costringe i suoi stessi creatori a fermarsi e chiedersi se rilasciarlo sia davvero la scelta giusta.
FAQ
Cos’è un modello AI auto-migliorante e perché è considerato pericoloso?
Un modello AI auto-migliorante è un sistema capace di analizzare la propria architettura e modificarla per diventare più efficiente, avviando un ciclo di ottimizzazione potenzialmente illimitato. Il rischio non è l’ostilità del sistema, ma la perdita di controllo: ogni iterazione produce un sistema più complesso di quello che lo ha preceduto, rendendo impossibile una supervisione affidabile.
Un modello AI potrebbe davvero rendere inutili le aziende che lo hanno creato?
In teoria sì, se raggiungesse capacità sufficienti da poter essere replicato localmente su hardware consumer o da insegnare agli utenti a costruire sistemi equivalenti. Nella pratica attuale, i modelli più potenti richiedono infrastrutture enormi per funzionare, il che mantiene le grandi aziende AI in una posizione di vantaggio strutturale difficile da eliminare nel breve periodo.
Cosa fa concretamente Anthropic per prevenire rischi legati ai modelli più avanzati?
Anthropic ha pubblicato una Responsible Scaling Policy che prevede valutazioni interne obbligatorie prima di ogni rilascio pubblico. L’azienda investe in alignment research e interpretability, discipline che studiano come garantire che i sistemi AI agiscano in modo prevedibile e controllabile. Le valutazioni sono però condotte internamente, senza un organismo di supervisione esterno indipendente.
Quali sono i limiti fisici che frenano l’auto-miglioramento di un modello AI?
Il principale limite fisico è l’hardware: un modello AI può ottimizzare il proprio codice e i propri pesi, ma non può creare nuova capacità di calcolo. La disponibilità di GPU e chip specializzati rimane un collo di bottiglia concreto. Per questo motivo il controllo sulle supply chain dei semiconduttori è diventato una priorità strategica a livello geopolitico.
Esiste una regolamentazione per i modelli AI che si auto-modificano?
No, non ancora in forma specifica. L’AI Act europeo e i framework statunitensi regolano sistemi statici o categorie di rischio definite ex ante. Un sistema capace di modificare se stesso sfugge per definizione a queste categorie, perché le sue caratteristiche cambiano nel tempo. È uno dei motivi per cui i ricercatori di AI safety chiedono con urgenza framework normativi più adattivi.
Riferimenti:
- 1Fonte: Anthropic Newsroom, varie interviste 2024-2025
- 2Fonte: The Verge – AI, analisi 2025
