Gli USA, la lotta globale per l’egemonia e il miraggio dell’intelligenza artificiale
Mentre arriva la sfida cinese di DeepSeek, la Silicon Valley guarda sempre più al settore militare, proponendo un’alleanza all’establishment USA che teme di perdere l’egemonia mondiale.
![](https://substackcdn.com/image/fetch/w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff01d799f-fcd0-47d5-8eaf-f51593673fc0_2000x1600.jpeg)
DeepSeek, una startup cinese fino a poco tempo fa pressoché sconosciuta, ha scosso le convinzioni del mondo dell’intelligenza artificiale (IA), a fine gennaio, lanciando un modello linguistico di grandi dimensioni (large language model, LLM) con capacità paragonabili a quelle dei migliori modelli di compagnie americane leader nel settore come OpenAI, Anthropic e Meta.
Per anni, molti hanno dato per scontato che le compagnie della Silicon Valley fossero all’avanguardia nello sviluppo dell’IA, ed essenzialmente destinate a dominare un settore considerato strategico nella lotta per l’egemonia tecnologica mondiale.
DeepSeek R1 è un “modello di ragionamento” in grado di risolvere problemi matematici, logici e di programmazione anche complessi, con prestazioni equiparabili a quelle di OpenAI o1, ma con software “open source” e senza iscrizione a pagamento (richiesta invece da quest’ultimo, che è un modello proprietario).
In più, DeepSeek R1 è stato addestrato ad una frazione del costo richiesto da OpenAI o1 (secondo stime tuttavia non unanimemente condivise, l’addestramento avrebbe richiesto circa 6 milioni di dollari), e senza l’impiego di microchip di ultima generazione, la cui esportazione in Cina è proibita dagli USA.
Il lancio del modello “a basso costo” di DeepSeek avviene mentre giganti come Microsoft e Meta si apprestano a spendere rispettivamente 80 e 65 miliardi di dollari nel 2025 in infrastrutture legate all’IA.
Nell’anno appena iniziato, ci si attende che i “magnifici sette” fra le Big Tech americane (Apple, Microsoft, Alphabet, Amazon, Nvidia, Meta, e Tesla) investiranno complessivamente almeno 250 miliardi di dollari nell’intelligenza artificiale.
Alla luce dell’exploit di DeepSeek, il timore degli investitori USA è che simili investimenti si rivelino eccessivi, e soprattutto che possano danneggiare la redditività delle grandi compagnie americane, se una startup cinese relativamente piccola può fornire applicazioni di intelligenza artificiale a costi molto più bassi.
Il risultato è che, alla prima riapertura della borsa, Nvidia (leader mondiale nella produzione dei microchip più sofisticati), Alphabet, Amazon, Microsoft e Meta, hanno perso complessivamente quasi 750 miliardi di dollari del loro valore di mercato.
Dal punto di vista di Washington, l’episodio di DeepSeek lancia un campanello d’allarme, mostrando che gli sforzi americani per ostacolare i progressi cinesi nello sviluppo dell’IA sono inadeguati.
DeepSeek dimostra che le barriere oggettive, come l’impossibilità di usufruire di microchip di ultima generazione e i limiti di budget, possono stimolare l’ingegnosità e l’innovazione più degli investimenti massicci.
Una bolla destinata a esplodere?
Sia l’attuale presidente Donald Trump che il suo predecessore Joe Biden hanno posto lo sviluppo tecnologico, ed in particolare quello dell’IA, al centro dei propri sforzi per vincere la competizione globale, e in primo luogo la gara con la Cina.
Vi è però chi teme già da tempo che il modello di sviluppo americano dell’IA, fondato sulla costruzione di giganteschi data center che consumano impressionanti quantità di energia e sulla produzione di microchip sempre più sofisticati e costosi, possa tradursi in una bolla destinata ad esplodere.
Tale timore precede il terremoto causato da DeepSeek. Lo avevano già espresso l’Economist e il Financial Times a metà dello scorso anno. Già allora, magnati della Big Tech come Mark Zuckerberg (Meta) ammettevano che “potrebbero volerci anni prima che questo tipo di investimenti generi rendimenti”.
In uno studio molto discusso di Goldman Sachs risalente allo scorso giugno, l'economista del MIT Daron Acemoglu sosteneva che i probabili benefici dell'IA sarebbero stati molto più contenuti di quanto ipotizzavano gli investitori, e che ci sarebbe voluto più tempo del previsto per apprezzarli. Nel frattempo, aggiungeva Acemoglu, vi è il rischio che svantaggi della tecnologia come i deep fake arrivino prima dei vantaggi.
L’economista prevedeva che l’IA avrebbe accresciuto la produttività di appena lo 0,5% ed il PIL di circa l’1% nel prossimo decennio, una stima drammaticamente inferiore a quelle di Goldman del 9% e del 6,1% rispettivamente.
Altri analisti del gruppo osservavano che gli investitori stanno ancora aspettando che si materializzino gli utili della realtà virtuale, del metaverso e della blockchain. “Se l’analisi di Acemoglu è corretta”, concludeva il Financial Times, “il mercato finanziario statunitense – Nvidia inclusa – andrà verso una brutta resa dei conti”.
Il boom dell’IA in ambito militare
Mentre sussistono seri problemi di sostenibilità economica, energetica e ambientale per il modello di sviluppo dell’intelligenza artificiale, essa sta diventando un elemento chiave della competizione globale per l’egemonia, incluse le sue dirompenti applicazioni in ambito militare.
Il crescente impiego dell’IA nei conflitti in gran parte del mondo conferma fino a che punto le forze armate di numerosi paesi guardino agli sviluppi militari di questa tecnologia, sebbene possano avere conseguenze difficilmente prevedibili e pesanti implicazioni etiche.
Il risultato è una multimiliardaria corsa alle armi “intelligenti”, che sta risucchiando i giganti della Silicon Valley insieme alle industrie di molti altri paesi del pianeta.
Il conflitto ucraino, che è stato definito “un laboratorio di guerra dell’intelligenza artificiale”, ha visto la progressiva applicazione di conoscenze civili sull’IA all’ambito militare, una sfera ad oggi non regolamentata.
Aziende private USA come Palantir e ClearviewAI sono diventate attori chiave sul campo di battaglia, fornendo analisi dei dati per attacchi con droni e operazioni di sorveglianza e ricognizione.
Da più di un decennio, Palantir ottiene lucrosi contratti dal Pentagono, dal Dipartimento della Sicurezza Interna e dall’FBI, avendo sviluppato allo stesso tempo un giro d’affari internazionale.
La compagnia, fondata da Peter Thiel, Stephen Cohen, Joe Lonsdale, e Alex Karp nel 2003, ha sperimentato la sua Piattaforma di Intelligenza Artificiale (un sistema di intelligence e di elaborazione decisionale in grado di analizzare gli obiettivi nemici e proporre piani di battaglia) sul teatro di guerra ucraino.
Altre tecnologie di Palantir includono l’applicazione dell’IA a sistemi di “polizia predittiva” (l’insieme delle indagini volte a identificare individui potenzialmente in grado di compiere attività criminali, o luoghi potenzialmente teatro di tali attività) e di sorveglianza.
Diverse istituzioni del governo ucraino, inclusi il ministero della difesa, quello dell’economia e quello dell’istruzione, utilizzano i prodotti della compagnia.
Il software di Palantir, che utilizza l’IA per analizzare immagini satellitari, dati open-source, video trasmessi da droni, e rapporti sul campo al fine di suggerire opzioni militari ai vertici dell’esercito, è responsabile della maggior parte della scelta dei bersagli, secondo il suo cofondatore Alex Karp.
L’IA nell’inferno di Gaza
Nella sua operazione militare a Gaza, Israele ha fatto ampio ricorso ad almeno due sistemi basati sull’intelligenza artificiale, come ho scritto in un precedente articolo:
“The Gospel”, il primo, elabora milioni di dati per identificare a gran velocità edifici ed altre strutture da cui potrebbero operare i miliziani palestinesi, trasformandoli così in bersagli da distruggere.
Il secondo, denominato “Lavender”, individua invece sospetti membri dell’ala militare di Hamas e della Jihad Islamica, processando anche in questo caso infinità di dati che vanno dalle intercettazioni telefoniche all’adesione a gruppi Whatsapp.
Il programma stila così una graduatoria di probabile appartenenza, che va da 1 a 100. Gli individui che figurano ai vertici di tale classifica vengono sorvegliati da un sistema chiamato “Dov’è papà?”, il quale invia un segnale quando il “sospettato” rientra a casa, dove viene bombardato (insieme alla sua famiglia).
The Gospel e Lavender sono solo le ultime due spaventose incarnazioni di un’industria sempre più fiorente, che applica tecnologie di ultima generazione all’ambito bellico, e che vede Israele all’avanguardia mondiale nel settore.
Secondo un’inchiesta dell’israeliana +972 Magazine, le forze armate di Tel Aviv hanno utilizzato i risultati forniti da questi sistemi come se fossero frutto di decisioni umane, talvolta dedicando non più di 20 secondi a verificare un bersaglio prima di bombardarlo.
Ad appena due settimane dall’inizio del conflitto, i vertici dell’esercito israeliano avrebbero incoraggiato i soldati ad approvare automaticamente le “kill list” fornite da Lavender, sebbene il sistema abbia evidenziato un margine di errore almeno del 10%.
Rischi di estinzione?
Come si vede, le applicazioni militari dell’IA sono estremamente varie, andando dalle cosiddette “armi autonome” (lethal autonomous weapons systems, LAWS) alla cyber-security ed ai processi decisionali strategici.
L’IA è potenzialmente in grado di modificare ogni aspetto della guerra, dai sistemi d’arma alle catene di fornitura, alle strategie militari, alla gestione del campo di battaglia, ai protocolli di addestramento, alla gestione dei dati e alle operazioni di sorveglianza e monitoraggio.
L’intelligenza artificiale da un lato è in grado di potenziare enormemente l’efficienza militare e il processo di definizione e distruzione dei bersagli – dunque la letalità dell’azione bellica – dall’altro può determinare errori fatali derivanti dal malfunzionamento del software che la governa.
Il ritornello spesso ripetuto da esponenti dell’industria bellica e da esperti del settore negli USA è quello secondo cui le applicazioni militari dell’IA avrebbero raggiunto il loro “momento Oppenheimer”, con ovvio riferimento allo sviluppo della bomba atomica da parte del fisico J. Robert Oppenheimer.
Vi è chi considera questa espressione come profezia trionfale di una nuova era di egemonia americana (messa però in dubbio, come abbiamo visto, dalle performance dell’IA cinese), e chi la intende come un cupo avvertimento di un potere orribilmente distruttivo.
Simili questioni, tuttavia, vengono raramente esposte all’opinione pubblica, rimanendo invece confinate entro una ristretta cerchia di accademici ed esperti militari.
Vi è poi la concreta probabilità che, al pari di altre tecnologie, le applicazioni belliche dell’IA vengano successivamente adottate dalle forze di polizia per il mantenimento dell’ordine pubblico e per il controllo e la sorveglianza dei confini.
I rischi insiti nelle applicazioni civili e militari dell’IA sono tali, a giudizio di scienziati ed esperti del settore, da essere in grado di provocare la fine della civiltà umana.
Ciò ha spinto numerosi accademici ed esponenti di punta dell’industria dell’IA a sottoscrivere una dichiarazione pubblica secondo la quale “attenuare il rischio di estinzione causato dall'intelligenza artificiale dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare”.
Il lato oscuro della Silicon Valley
Tuttavia, i firmatari di questa dichiarazione, inclusi i CEO di Google DeepMind e di OpenAI, sono gli stessi che hanno creato questa tecnologia e, cosa ancor più rilevante, che ne stanno sviluppando le applicazioni militari.
OpenAI ha annunciato una partnership strategica con Anduril Industries per applicare l’intelligenza artificiale a “missioni di sicurezza nazionale”. Anduril è una compagnia che sviluppa droni letali guidati dall’IA, caccia senza pilota e droni subacquei.
La società, fondata da Palmer Luckey, un miliardario trentenne di simpatie trumpiane, ha un contratto per sviluppare i droni del Pentagono, e ne ha già inviati centinaia in Ucraina. Secondo Luckey, Anduril “salverà la civiltà occidentale”.
Nel frattempo Google (che in realtà già in passato aveva partecipato a programmi del Dipartimento della Difesa) ha rimosso dai propri principi l’impegno a non sviluppare armi e sistemi di sorveglianza.
Dal canto suo, Meta aveva annunciato già nel 2024 che Llama, il suo large language model, avrebbe potuto essere impiegato nel settore della difesa. Fra le Big Tech e le principali startup dell’IA, sono ormai poche quelle non impegnate in contratti di natura militare o di intelligence.
I nuovi “visionari” della Silicon Valley – gente come Elon Musk, Peter Thiel e Palmer Luckey – si considerano messia tecnologici in grado di ristabilire l’egemonia USA vincendo la competizione con la Cina, purché il governo consenta loro di fare il proprio lavoro.
Alex Karp (Palantir) ha dichiarato che gli Stati Uniti finiranno per scontrarsi militarmente con la Cina, e che la politica migliore è “spaventare a morte il tuo nemico”.
“Move fast and break things” – il motto coniato da Zuckerberg e fatto proprio dai venture capitalist dell’IA, secondo il quale errori occasionali sono un piccolo prezzo da pagare per ottenere una rapida innovazione – dovrebbe ora essere applicato al settore della difesa, secondo la visione dei nuovi guru dell’intelligenza artificiale.
Ci vuol poco, però, per comprendere che in questo settore il prezzo da pagare per eventuali errori è potenzialmente ben maggiore.
Una miscela pericolosa
Tre giorni prima dello scadere del proprio mandato, Jake Sullivan, consigliere per la sicurezza nazionale dell’amministrazione Biden uscente, ha lanciato un ammonimento doppiamente allarmistico.
Secondo lui, i prossimi anni determineranno se l’intelligenza artificiale ci condurrà alla catastrofe, e se la Cina o gli USA prevarranno nella corsa al riarmo basato sull’IA.
Egli ha aggiunto che, a differenza di precedenti salti tecnologici, gli sviluppi dell’IA non sono nelle mani del governo ma di compagnie private che hanno un potere paragonabile a quello degli Stati.
Secondo lui, il governo americano dovrebbe unire le forze con queste compagnie per salvaguardare il vantaggio tecnologico dell’America e plasmare le regole globali per l’impiego dell’IA, tecnologia dal potere “quasi divino”.
Il panico dell’establishment USA generato dalla prospettiva di perdere il primato mondiale, ed il “tecno-ottimismo” dei venture capitalist della Silicon Valley, secondo i quali la tecnologia può fornire una risposta a qualsiasi problema, costituiscono una miscela pericolosa ai vertici dello Stato tuttora più potente del mondo.
L’idea di affidarsi ad una tecnologia ancora sperimentale con elevati rischi applicativi, fondata su un modello economico di sviluppo insostenibile sotto diversi aspetti, per vincere una competizione strategica e militare con una superpotenza di pari livello, può rivelarsi un miraggio dalle implicazioni difficilmente preventivabili.
La trama di Terminator non era poi tanto fantasiosa
Si prospetta un futuro prossimo sempre più cupo, per non dire terrificante. Grazie per questo articolo così approfondito e documentato.