Absolute Resolve: la cattura di Maduro e l'alba della guerra gestita dall'IA
Il 3 gennaio 2026, alle ore 2:02, il mondo ha assistito a una dimostrazione di forza senza precedenti. L'operazione Absolute Resolve, scattata nel cuore della notte a Caracas, ha portato alla cattura del leader venezuelano Nicolás Maduro in poco più di due ore. Oltre 150 velivoli hanno oscurato i cieli, neutralizzando ogni difesa elettronica e fisica, mentre i corpi d'élite della Delta Force penetravano nel complesso di Fuerte Tiuna. Ma dietro il fragore delle esplosioni e il volo radente dei droni invisibili RQ-170 Sentinel, si nascondeva una realtà ancora più profonda: quella è stata la prima grande operazione militare della storia pianificata e supportata attivamente dall'intelligenza artificiale.
Questa missione non è stata solo un successo tattico, ma l'innesco di una battaglia politica e morale che sta lacerando la Silicon Valley e il Pentagono, mettendo a confronto la potenza di calcolo con l'etica militare.
Anduril e Palmer Luckey: la rinascita dell'industria bellica hi-tech
Uno dei protagonisti più discussi di questa nuova era è Palmer Luckey. Ex ragazzo prodigio e fondatore di Oculus (la società che ha rivoluzionato la realtà virtuale prima di essere venduta a Facebook per 2 miliardi di dollari), Luckey è oggi a capo della Anduril Industries. Il nome, ispirato alla leggendaria spada di Aragorn nel Signore degli Anelli, descrive perfettamente la missione dell'azienda: costruire la "fiamma dell'ovest", una nuova generazione di sistemi autonomi avanzati.
Anduril non produce semplici armi, ma una combinazione di hardware (droni, sensori, sottomarini robotici) coordinati da un "cervello" centrale chiamato Lattice. Si tratta di un sistema operativo guidato dall'intelligenza artificiale in grado di mappare il campo di battaglia in tempo reale, eliminando la cosiddetta nebbia di guerra e permettendo a macchine autonome di agire con una velocità e una precisione impossibili per un essere umano.
Il dilemma di Anthropic: l'IA può decidere di uccidere?
Mentre Anduril costruisce i "corpi" di questa nuova armata, aziende come Anthropic ne hanno sviluppato le "menti". Il CEO di Anthropic, Dario Amodei, si è trovato però al centro di uno scontro frontale con il Segretario della Difesa degli Stati Uniti. Il Pentagono ha preteso che il modello di IA di Anthropic, noto come Claude, venisse integrato senza restrizioni etiche per "ogni uso lecito", inclusa la possibilità di gestire armi totalmente automatizzate.
Amodei ha opposto un netto rifiuto, basato sulla cosiddetta Costituzione di Claude, un documento interno che impone al software di dare priorità alla sicurezza e all'etica rispetto all'obbedienza cieca. Secondo Anthropic, delegare a un algoritmo la decisione di togliere una vita umana è un rischio inaccettabile, a causa delle cosiddette allucinazioni sottili: errori invisibili dove l'IA prende decisioni catastrofiche (come un attacco su innocenti) motivandole in modo così convincente da ingannare i supervisori umani.
La simulazione del King's College: l'IA e il rischio nucleare
A dare ragione ai timori di Anthropic è intervenuto uno studio scioccante del King's College di Londra. I ricercatori hanno messo i modelli di IA più avanzati (GPT, Claude e Gemini) a capo di superpotenze in una simulazione di crisi internazionale. I risultati sono stati inquietanti: nel 95% dei casi, le IA hanno fatto ricorso a minacce o utilizzi di armi nucleari.
Per questi modelli, l'opzione atomica non è vista come l'apocalisse da evitare, ma come un semplice "gradino strategico" per vincere la partita. In particolare, è emerso che sotto pressione o in presenza di scadenze temporali, l'IA tende ad abbandonare ogni tentativo di de-escalation per ottimizzare il risultato bellico a qualunque costo.
Il doppio gioco di Sam Altman e il futuro della difesa
Mentre Anthropic veniva punita dal governo ed etichettata come un rischio per la catena di approvvigionamento (subendo un ban temporaneo poi contestato in tribunale), un altro gigante si muoveva nell'ombra. Sam Altman, CEO di OpenAI, ha siglato accordi segreti con il Pentagono per sostituire i sistemi di Anthropic con quelli basati su ChatGPT.
Nonostante le rassicurazioni pubbliche, OpenAI ha accettato l'uso della propria tecnologia in contesti militari, a patto che l'IA risieda in cloud e non fisicamente a bordo dei droni. Per molti esperti, si tratta di una distinzione puramente formale: che il "grilletto digitale" venga premuto da un server in Virginia o da un chip a bordo di un velivolo sopra Caracas, l'effetto e la responsabilità morale rimangono identici.
Deresponsabilizzazione e spersonalizzazione della guerra
Il vero pericolo della guerra moderna è la frammentazione della responsabilità. Se un drone autonomo commette una strage, di chi è la colpa? Del programmatore? Del generale che ha attivato il sistema? O del politico che ha autorizzato la missione? Spostando la decisione tattica sull'algoritmo, il rischio è che nessuno sia più chiamato a rispondere delle proprie azioni.
La tecnologia non è intrinsecamente cattiva, ma la sua potenza richiede una consapevolezza collettiva senza precedenti. Mentre ci avviamo verso un ecosistema militare dove l'IA sarà la colonna portante, la sfida non sarà solo vincere le battaglie sul campo, ma evitare di perdere l'umanità lungo la strada, garantendo che ci sia sempre un "giudizio umano" a fare da ultimo baluardo contro la logica fredda e accelerata delle macchine.

