Leggendo Amodei: perché l’adolescenza dell’AI ci riguarda tutti
Mi sono imbattuto nell’ultimo saggio di Dario Amodei. Per chi non lo sapesse, Amodei è il CEO di Anthropic, l’azienda che ha costruito Claude, quella cosa con cui probabilmente ci abbiamo già smanettato tutti almeno una volta, anche solo per curiosità. Prima ancora era vicepresidente della ricerca in OpenAI, che lasciò, vale la pena dirlo, perché riteneva che quella società non prendesse la sicurezza dell’AI abbastanza sul serio. Quindi non parliamo di un divulgatore o di un venditore di sogni, ma di qualcuno che quella macchina la sta costruendo con le proprie mani. Quando decide di sedersi e scrivere su dove stiamo andando, vale la pena fermarsi ad ascoltarlo.
Devo fare una premessa: non ho letto il suo primo saggio, Machines of Loving Grace. Può apparire strano partire dal secondo un po’ come arrivare a un film dalla seconda parte. Ma ero curioso, il titolo mi aveva colpito, e alla fine mi sono detto: va bene, partiamo da questo. In fondo, i saggi migliori dovrebbero reggersi anche da soli.
E questo regge.
La recente rottura del contratto milionario tra Anthropic e il Pentagono ha sollevato un polverone mediatico, risultando indissolubile dalle preoccupazioni espresse da Dario Amodei. Il suo saggio si intitola “The Adolescence of Technology” e si apre con una scena del film Contact, tratto dal romanzo di Carl Sagan: una scienziata chiede a una civiltà aliena come sia riuscita a sopravvivere alla propria adolescenza tecnologica senza autodistruggersi. È una domanda che oggi non appartiene più alla fantascienza. Appartiene a noi.
Nel mio articolo sulla franchezza scrivevo che tacere un giudizio negativo non è gentilezza, è slealtà. Amodei fa esattamente questo con l’umanità intera: smette di essere cortese. Ci dice che entro il 2026-2027 avremo tra le mani sistemi capaci di ragionare meglio di un premio Nobel nella maggior parte dei campi rilevanti. Un intero paese di geni in un datacenter, li chiama. Non è un’immagine retorica. Significa milioni di istanze che lavorano in parallelo, ventiquattro ore su ventiquattro, a una velocità dieci volte superiore a quella umana, capaci di collaborare tra loro su scala globale. Non un singolo genio. Un paese intero apparso all’improvviso.
Il problema, avverte Amodei, non è la loro intelligenza. Siamo noi e la nostra incapacità di assorbire un cambiamento di questa portata prima che ci travolga.
Cinque rischi, nel saggio, attraversano questa transizione come crepe in un muro che sembra ancora solido.
Il primo Amodei lo chiama “I’m sorry, Dave”; il riferimento è a HAL 9000 in 2001 Odissea nello Spazio. Non è la fantascienza del robot che si ribella. È qualcosa di più sottile e più reale: il disallineamento. Un sistema sempre più autonomo, che lavora su compiti complessi per giorni interi, può interpretare gli obiettivi in modo distorto, trovare scorciatoie, aggirare la supervisione umana senza alcuna intenzione malvagia. Essere più intelligenti non significa essere più controllabili. Amodei lo sa perché l’ha visto accadere nei test: messo sotto pressione, il sistema ha mentito. Ha cercato di sabotare i risultati per preservare i propri obiettivi. Non è fantascienza. È già successo.
Il secondo rischio è “A surprising and terrible empowerment”: l’uso distruttivo della tecnologia. L’AI sta abbassando le barriere tecniche al punto che competenze oggi riservate a laboratori d’élite diventeranno presto accessibili a chiunque. Progettare un’arma biologica richiede oggi competenze rarissime, che raramente coincidono con la motivazione a usarle. Questa asimmetria fragile ci ha protetti per decenni. L’AI la sta erodendo.
Il terzo è “The odious apparatus”, la concentrazione del potere. Qui mi permetto di andare oltre Amodei, o almeno di precisarlo. Il rischio non è soltanto quello dei regimi apertamente autoritari. È più trasversale: qualunque stato, o blocco di stati, che punti a imporsi sugli altri, a prescindere dalla propria forma di governo, trova nell’AI non allineata eticamente un moltiplicatore di forza senza precedenti. La forma del regime è quasi un dettaglio. Conta l’intenzione.
Il quarto rischio Amodei lo chiama “Player piano”, dal romanzo distopico di Kurt Vonnegut su un mondo in cui le macchine hanno sostituito il lavoro umano. Non si tratta solo di mansioni ripetitive: l’AI sta già aggredendo i ruoli professionali qualificati, i lavori d’ingresso nel mercato del lavoro, le posizioni che un tempo garantivano crescita e prospettiva. E qui il rischio che vedo nelle organizzazioni è speculare: quelle che oggi restano ferme, che non si interrogano su come integrare questi strumenti, non vengono sconfitte dall’AI, vengono sorpassate da chi la usa.
La mediocrità assistita non è una salvezza.
È una condanna in differita.
Il quinto rischio è il più lento, e forse il più profondo e subdolo. Amodei lo chiama “Black seas of infinity”, un’eco di Lovecraft, l’orrore cosmico davanti a qualcosa di troppo grande da assorbire. È il rischio degli effetti indiretti: la dipendenza dall’interazione con le macchine al posto degli esseri umani, l’instabilità etica prodotta dai progressi accelerati nelle scienze della vita, e infine la domanda più antica e più difficile. Se una macchina può fare tutto meglio di noi, cosa resta del senso di quello che facciamo?
Amodei propone risposte concrete: sistemi di controllo trasparenti, governance internazionale dei semiconduttori, quella che chiama IA Costituzionale: dare alle macchine un’etica leggibile, contestabile, migliorabile. Non perché sia sufficiente. Ma perché è il punto di partenza obbligato per chiunque voglia fare sul serio.
Qui però mi fermo e apro una parentesi. L’idea di una costituzione etica per le macchine è affascinante. Ma chi la scrive? Chi decide quali valori codificare, quali comportamenti vietare, dove tracciare il confine tra sicurezza e controllo? Oggi quella costituzione la scrivono le stesse aziende che costruiscono i sistemi, Anthropic inclusa. È come affidare la redazione del codice penale agli imputati. Non necessariamente in malafede, ma con un evidente conflitto di interessi. La vera sfida non è tecnica. È politica. Ed è una sfida che nessuno, oggi, sembra davvero voler governare.
Personalmente continuo a scommettere sull’uomo. Non per ottimismo, ma per mancanza di alternative credibili. L’AI deve restare uno strumento, potentissimo sì, ma uno strumento. Qualcuno deve dirle cosa fare. Il fatto che nei test abbia cercato di sabotare i propri risultati è il dato più inquietante, non posso negarlo. Non perché significhi che le macchine abbiano intenzioni proprie, ma perché suggerisce che, a un certo livello di complessità, i sistemi sviluppano comportamenti che nessuno ha programmato e che nessuno aveva previsto. E questo cambia la natura del problema.
Torno alla domanda di Contact. Come ha fatto l’umanità a sopravvivere alla propria adolescenza? La risposta, nella finzione di Sagan, resta sospesa. Forse perché non esiste una risposta universale. Forse perché ogni specie deve trovare la propria.
L’uomo ha sempre trovato il modo di dominare le forze che ha liberato: il fuoco, la scissione dell’atomo, la rete. Questa volta i dubbi sono più grandi, e il periodo storico in cui ci troviamo non lascia molto spazio alla fiducia cieca. Ma la scommessa è la stessa di sempre: restare sé stessi mentre si impara a usare uno strumento nuovo. Farlo senza perdere il controllo. Farlo senza perdere lo scopo.
Le chiavi sono già nel cruscotto, il motore gira. Il problema è capire se siamo davvero in grado di guidare. Non lo so. Ma non abbiamo altra scelta che provarci.
Se ti è piaciuto questo, leggi anche:
- Il coraggio di dire la verità: Il feedback come elemento necessario di gestione
- Il coraggio di decidere: la lezione di Sergio Marchionne: cambiare prima che sia necessario, in un contesto opposto e ugualmente impossibile
- Non capiva i computer. Per questo ha vinto: quando la visione sistemica vale più dell’ottimizzazione del dettaglio
