
NATO incontra Palantir: un’analisi critica del sistema di guerra basato su IA della NATO
È notizia di oggi che il 25 marzo 2025, la NATO ha finalizzato l’acquisizione del Maven Smart System NATO (MSS NATO), una piattaforma di guerra basata su intelligenza artificiale integrata sviluppata in collaborazione con Palantir Technologies. Acclamato come un passo avanti nelle capacità decisionali operative, il MSS NATO rappresenta l’ennesimo esempio dell’integrazione dell’IA nella sfera militare. Questo fatto segna un momento cruciale nella militarizzazione dell’intelligenza artificiale, e proprio analizzando una serie di passaggi presi dall’annuncio stesso vorremmo porre una serie di riflessioni critiche che riteniamo utili per analizzare gli scenari bellici attuali e futuri.
Cominciamo con:
The MSS NATO capability empowers commanders and warfighters to leverage cutting-edge artificial intelligence (AI) safely and securely in core military operations. By providing a common data-enabled warfighting capability to the Alliance, through a wide range of AI applications – from large language models (LLMs) to generative and machine learning – MSS NATO enhances intelligence fusion and targeting, battlespace awareness and planning, and accelerated decision-making.
Analizziamo alcune cose che vengono dette, partendo da:
“to leverage [..] artificial intelligence safely and securely in core military operations” che tradotto significa “per sfruttare [..] l’intelligenza artificiale in modo sicuro e protetto nelle principali operazioni militari”
Questa frase gia contiene un ossimoro: come se si potesse rendere in qualche modo le operazioni militari “sicure” e “protette”
Abbiamo poi due frasi che riguardano aspetti strettamente collegati tra loro:
“data-enabled warfighting capability” e “from large language models (LLMs) to generative and machine learning – MSS NATO enhances intelligence fusion and targeting”. che tradotto significa:
“capacità di combattimento basata sui dati” e “dai modelli linguistici di grandi dimensioni (LLM) all’apprendimento generativo e automatico: MSS NATO migliora la fusione dell’intelligence e il targeting”.
Cosa significano queste cose e perché sono problematiche? Cominciamo dal fatto che MSS NATO integra modelli linguistici di grandi dimensioni (LLM), intelligenza artificiale generativa e apprendimento automatico (machine learning).
Questi sistemi vengono addestrati su enormi quantità di dati e funzionano analizzando statisticamente miliardi di esempi per identificare pattern. Operano su basi statistiche e probabilistiche, portando con sé un errore intrinseco: ogni modello statistico per definizione semplifica la realtà, escludendo alcune variabili e sovrastimandone altre. Questa incertezza statistica è inevitabile e come ampiamente dimostrato questi sistemi incorporano i bias, le lacune e le assunzioni strategiche di chi li progetta. Le scelte sui dati di addestramento, gli algoritmi utilizzati e i parametri selezionati riflettono inevitabilmente le priorità e le prospettive di chi sviluppa questi sistemi.
Questi sistemi necessitano di enormi quantità di dati che per gli impieghi bellici vengono ottenuti in larga parte tramite tecnologie di sorveglianza nei teatri di conflitto. Nessuno acconsente realmente a questa raccolta, tantomeno le persone coinvolte. Possiamo facilmente immaginare cosa accade quando popolazioni non occidentali diventano soggetti inconsapevoli degli algoritmi predittivi di guerra.
Inoltre la fusione dei sistemi proprietari di Palantir con la struttura di comando della NATO solleva evidenti criticità sulla privatizzazione delle funzioni di sicurezza critica e sull’intreccio crescente tra potere militare e interessi aziendali. Chi controlla questi modelli? Chi stabilisce le regole d’ingaggio quando è un algoritmo a segnalare un bersaglio “prioritario”?
Queste domande assumono un peso ancora maggiore alla luce di questa ulteriore affermazione presente nel testo:
“accelerated decision-making.” tradotto: “processo decisionale accellerato.”
Uno dei principali vantaggi vantati del MSS NATO è la capacità di accelerare il processo decisionale sul campo. Tuttavia, la velocità in questi casi sacrifica la riflessione, la complessità e la responsabilità. Gli strumenti decisionali automatizzati o semi-automatizzati possono generare una dipendenza eccessiva dalle raccomandazioni algoritmiche—un fenomeno noto come automation bias. Inoltre, la presunta oggettività degli algoritmi oscura le realtà ambigue e caotiche del conflitto. Vittime civili, identificazioni errate e bersagli colpiti erroneamente diventano più difficili da contestare se le decisioni passano attraverso logiche opache e inaccessibili.
Come riportato da un articolo di The Guardian e da numerose altre fonti, il massiccio impiego dell’IA da parte di Israele durante il conflitto a Gaza, in particolare dal 7 ottobre in poi, ha aumentato il numero di bersagli identificati come da eliminare da 50 all’anno a 100 al giorno, causando migliaia di vittime civili collaterali considerate “accettabili” in base ad un sistema di ranking basato sulla presunta appartenenza e ruolo nelle fila di Hamas.
In modo tristemente prevedibile, gli altri governi del mondo guardano e imparano, NATO in primis.
Proseguiamo al prossimo passaggio:
“We’re proud to support NATO’s drive to bolster deterrence by deploying an AI-enabled warfighting platform at SHAPE. This partnership underlines the Alliance’s determination to lead fearlessly with technological innovation,” said Shon Manasco, Senior Counselor at Palantir Technologies.
In particolare “to bolster deterrence by deploying an AI-enabled warfighting platform” e “lead fearlessly with technological innovation”
tradotto:
“rafforzare la deterrenza implementando una piattaforma di combattimento basata sull’intelligenza artificiale” e “guidare senza paura con l’innovazione tecnologica”
La prima frase rivela la vera natura della corsa all’IA militare: non si tratta semplicemente di migliorare le capacità difensive, ma di stabilire un dominio tecnologico che si traduce direttamente in supremazia militare globale. Siamo di fronte a una nuova corsa agli armamenti che riecheggia inquietantemente quella nucleare del secolo scorso. Chi raggiungerà per primo capacità avanzate di IA bellica acquisirà un vantaggio strategico talmente decisivo da alterare permanentemente gli equilibri di potere mondiali.
La seconda frase rappresenta invece una pericolosa retorica che maschera una sostanziale indifferenza verso le conseguenze di questa corsa sfrenata. “Senza paura” significa, nella pratica, senza considerazione per gli enormi costi ambientali e umani causati dalle infrastrutture necessarie a queste tecnologie e dal loro impiego. Significa ignorare il consumo di risorse idriche ed energetiche in quantità spaventose. Significa ignorare deliberatamente la distruzione di posti di lavoro, la creazione di nuove forme di sfruttamento, l’ampliamento delle disuguaglianze sociali e l’alienazione che queste tecnologie stanno già provocando. Significa, soprattutto, procedere senza una valutazione critica dei rischi sistemici che comporta affidare decisioni potenzialmente letali a sistemi che, per loro natura statistica, contengono errori intrinseci. Questa assenza di cautela non è coraggio, ma una pericolosa forma di cecità strategica che potrebbe avere conseguenze irreversibili per il nostro futuro collettivo.
Infine l’annuncio conclude in questo modo:
“The procurement of MSS NATO was one of the most expeditious in NATO’s history, taking only six months from outlining the requirement to acquiring the system. It is expected that ACO will begin using the new system within the next 30 days.”
che tradotto significa:
“L’acquisizione del MSS NATO è stata una delle più rapide nella storia della NATO, impiegando solo sei mesi dalla definizione dei requisiti all’acquisizione del sistema. Si prevede che l’ACO inizierà a utilizzare il nuovo sistema entro i prossimi 30 giorni.”
Questa affermazione non è un motivo di celebrazione ma un inquietante campanello d’allarme. Questa precipitosa adozione rappresenta un pericoloso abbandono dei principi di cautela che dovrebbero governare l’implementazione di tecnologie così potenzialmente destabilizzanti.
In un contesto in cui gli esperti di intelligenza artificiale continuano a sollevare preoccupazioni fondamentali sulla sicurezza, l’affidabilità e l’imprevedibilità dei sistemi di IA, questa corsa frenetica all’implementazione militare appare non solo imprudente ma profondamente distopica. Sei mesi è un periodo assurdamente breve per valutare adeguatamente i rischi sistemici, le vulnerabilità, le implicazioni etiche e le potenziali conseguenze involontarie di tecnologie così complesse, soprattutto quando destinate a contesti di sicurezza internazionale.
Questa rapidità suggerisce inoltre che le considerazioni geopolitiche e il timore di “restare indietro” nella corsa agli armamenti hanno completamente eclissato qualsiasi valutazione razionale dei rischi a lungo termine.
La realtà è che stiamo abbracciando una nuova era di armamenti senza aver risolto le questioni fondamentali di controllo, responsabilità e governance di queste tecnologie, in una corsa autodistruttiva che ricorda le peggiori follie della Guerra Fredda, ma con potenziali conseguenze ancora più devastanti per l’umanità.
Bisogna smontare la narrazione per cui sistemi come MSS NATO sono semplici traguardi tecnici. Dobbiamo invece leggerli come nodi in cui si intrecciano politica, etica e conseguenze planetarie.
Ti è piaciuto questo articolo? Infoaut è un network indipendente che si basa sul lavoro volontario e militante di molte persone. Puoi darci una mano diffondendo i nostri articoli, approfondimenti e reportage ad un pubblico il più vasto possibile e supportarci iscrivendoti al nostro canale telegram, o seguendo le nostre pagine social di facebook, instagram e youtube.