Perché le relazioni internazionali hanno ancora bisogno del giudizio umano nell’era degli algoritmi.
Quando un tempo si impiegavano mesi nella raccolta umana di informazioni, ora in qualche ora si riescono a raccogliere migliaia e centinaia di informazioni. Immagini satellitari, chat in social media, registri finanziari, pubblicazioni accademiche, una volta sparpagliati in oscuri archivi, oggi sono accessibili, attraverso la ricerca, in sofisticati algoritmi. L’Intelligenza Artificiale (IA) promette di sintetizzare questo oceano di dati in intuizioni scritte in un report, in un research paper, persino in una tesi di laurea, rivelando schemi invisibili agli analisti umani, prevedendo sviluppi con una precisione statistica.
L’attrazione è innegabile. I sistemi IA possono processare fonti multilingue, identificare le tendenze nascenti nel sentimento pubblico, e automatizzare il laborioso compito di pulitura dei dati che consuma circa il 90% del tempo dell’analista. Nelle zone di conflitto, gli strumenti IA sono stati impiegati per monitorare i movimenti degli avversari, identificare la costruzione di installazioni militari.
Tuttavia, questa meraviglia tecnologica ha un difetto fondamentale.
L’Intelligenza Artificiale non può validare la verità. I modelli valutano degli schemi, non la credibilità. Non possono identificare indipendentemente l’autenticità o l’intento, e si scontrano profondamente con le sfumature culturali, il sarcasmo, l’inganno, e la manipolazione dell’avversario. Questo limite non è un bug temporaneo che aspetta solo di essere sistemato nel prossimo aggiornamento del software, è una caratteristica implicita dei sistemi che operano attraverso lo schema statistico di riconoscimento piuttosto che su una comprensione genuina.
Il divario tra le capacità dell’IA e le sue esigenze di marketing si manifesta in fallimenti concreti, documentati, che dovrebbero far premere il tasto pausa a molti dei decisori politici che leggono rapporti complessi stilati in 5 minuti.
Uno studio del 2025 dell’European Broadcasting Union e BBC ha rivelato che gli assistenti IA riscontrano almeno un problema nell’81% delle loro risposte a domande sulle notizie. Non sono errori di inacuratezza minori. Il 31% conteneva errori nelle fonti, vale a dire le informazioni non erano sostenute da fonti citate, attribuite incorrettamente, o sostenute da riferimenti interamente non esistenti.
Nelle relazioni internazionali, questi errori non sono degli esercizi accademici. Essi possono scatenare incidenti diplomatici, giustificare azioni militari basate su falsi pretesti o deragliare interi processi negoziali. Quando i sistemi IA confezionano dichiarazioni di policy o attribuiscono erroneamente frasi provocatorie a funzionari esteri, non sono producono una cattiva analisi, ma creano realtà alternative.
Il caso dell’algoritmo di targeting a Gaza
L’utilizzo da parte delle forze israeliane di difesa di sistemi IA durante le operazioni a Gaza ci fornisce una chiara e limpida illustrazione dei bias di automazione e degli errori di verifica. Rapporti di investigazione hanno rivelato che gli analisti hanno utilizzato meno di un minuto nel rivedere ogni raccomandazione di target generata dall’IA, un controllo sbrigativo guidato dalla pressione di processare un alto volume di informazioni e il condizionamento dell’automazione. Il sistema tollerava un tasso di errore nell’identificazione del 10%, che vuol dire che 1 su 10 target poteva essere identificato non correttamente. Mentre gli operatori umani compiono le decisioni finali, la velocità assoluta e la scala delle raccomandazioni IA è fondamentalmente alterata dal loro calcolo decisionale. Ci si aspetta che gli analisti rivedano, quotidianamente, dozzine di target generati dall’IA, ma la fatica e la pressione del tempo inevitabilmente erodono il giudizio critico, riducendo il controllo umano ad un esercizio di vidimazione.
Limiti strutturali
Il problema dell’illusione
L’IA genera illusioni, miraggi, quando l’intervallo probabilistico delle loro risposte indica che esistono dati sufficienti per rispondere correttamente, ma il prompt spinge ancora l’IA al di là di limiti significativi, senza riconoscere l’incertezza. Diversamente dagli analisti umani che esprimo il dubbio quando non sono certi, i sistemi IA producono dei costrutti che sembrano certi. Questo crea una vulnerabilità critica dove un fatto illusorio può andare a comporre una valutazione della minaccia o condurre a false attribuzioni.
I sistemi IA utilizzano modelli probabilistici che possono generare differenti risultati per input simili.
La scatola nera all’interno di una scatola nera
I sistemi di IA sempre di più si affidano a synthetic training data, vale a dire a informazione generata dal computer che imita i dati del mondo reale, ma manca dell’accuratezza e della ricchezza contestuale. Questo crea uno scenario di “una scatola nera all’interno di una scatola nera” dove i successivi modelli IA sono addestrati su dati di provenienza e qualità ignota, amplificando iniziali bias ed errori.
L’elemento umano é ciò che non può essere replicato.
L’analisi di politica internazionale non è meramente una lavorazione di dati, ma un profondo sforzo che richiede giudizio, empatia, ragionamento etico. L’IA manca di diverse capacità essenziali ad una analisi di qualità:
L’intelligenza contestuale
Gli analisti umani comprendono che una dichiarazione di un funzionario cinese durante un congresso di partito contiene un peso differente rispetto alla stessa dichiarazione compiuta durante un evento diplomatico privato. Essi riconoscono le sfumature culturali, il bagaglio storico, il sottointeso delle dinamiche di potere. I modelli IA, addestrati su testi estrapolati dal contesto, trattano tutte le dichiarazioni come egualmente significative, mancando la cruciale distinzione tra retorica e intento.
Durante la Crisi dei Missili a Cuba, il processo decisorio del Presidente Kennedy conteneva delle sottili chiavi di lettura rispetto alle intenzioni sovietiche che avevano bisogno dell’interpretazione umana, di saper leggere tra le righe di note diplomatiche, comprendendo le pressioni domestiche di Khrushchev, pesando le dimensioni psicologiche della politica del rischio calcolato. I sistemi IA avrebbero raccomandato un blocco navale che fondamentalmente ha risolto la crisi o il suo schema di riconoscimento avrebbe favorito opzioni più aggressive basate su un precedente storico?
Il rigore analitico e la disciplina della verifica
Gli analisti di esperienza sviluppano un senso di intuizione per quando “qualcosa non è giusto”: una fonte che sembra troppo perfetta, una narrativa che calza troppo a pennello, dati che confermano preconcetti in maniera troppo conveniente. Questo sesto senso per l’inganno deriva da anni di riconoscimento di schemi nei comportamenti umani confusi, contraddittori. I sistemi IA, ottimizzati per la coerenza, è più probabile che generino narrative facili che oscurano le inconsistenze piuttosto che rilevarle.
Raccogliere più dati non significa automaticamente produrre un miglior prodotto. L’estrazione di dati automatizzata senza un contesto aumenta il rischio analitico piuttosto che ridurlo. Un’analisi di qualità dipende dall’analisi del contesto, dalla valutazione delle fonti e dalle distinzioni chiare tra il reporting e l’assessment, compiti che richiedono il giudizio umano.
Affidarsi enormemente all’IA non produce solo una cattiva analisi, ma crea un rischio domino che vizia l’intero processo decisionale. I più giovani ritengono che sia più conveniente imparare a scrivere un prompt per i sistemi IA, piuttosto che condurre un’analisi delle fonti primarie. Nel tempo probabilmente ci troveremo di fronte ad un IA che fallisce, come inevitabilmente accadrà, e ad una mancanza di capitale umano in grado di compensare tali errori.
Non sostengo che bisogna abbandonare il lavoro dell’IA. La tecnologia offre dei vantaggi quando è impiegata con premura e con discernimento. La chiave è riconoscere che l’IA è uno strumento per l’accrescimento, non di sostituzione.
Una delle vie migliori per utilizzare l’IA è la formazione specializzata alla conoscenza dell’IA, di come operano questi modelli, i loro bias allo scopo di poter inquadrare le richieste in modo efficace. L’IA dovrebbe aumentare il giudizio umano piuttosto che rimpiazzarlo. Comprendere che i modelli IA riflettono i loro dati addestrativi, che possono essere implicitamente ricchi di bias occidente-centrici o obsoleti di supposizioni geopolitiche. Gli analisti quindi dovrebbero imparare a formulare domande precise, strutturate logicamente che tengano conto delle limitazioni dell’IA e includere ipotesi alternative per contrastare i bias di conferma.
L’IA può processare i dati, ma sono gli umani che devono valutare le fonti, valutare la credibilità e tradurre in giudizio. Questo vuol dire investire nell’educazione degli analisti umani, nel preservare la conoscenza istituzionale, e resistere alla tentazione di ridurre l’analisi alla conta di risultati dell’efficienza dell’IA. L’obiettivo è un equilibrio tra l’IA che processa i dati in vasta scala e l’umano che fornisce il giudizio, l’etica e la comprensione contestuale che le macchine non possono replicare.
In conclusione, la promessa seducente dell’IA nelle analisi di relazioni internazionali è che essa può trasformare la coatica, confusa contraddizione degli affari internazionali in idee guidate dai dati. Questa promessa è sia vera che pericolosa. L’IA può processare informazione ad una scala superumana, ma non può capire cosa questa informazione voglia dire nella complessa rete delle motivazioni umane, dei contesti culturali e delle dinamiche di potere che definiscono le relazioni internazionali.
L’analisi di relazioni internazionali è al suo meglio un atto di empatia disciplinata: comprendere come gli altri vedono il mondo, riconoscere i limiti e le motivazioni, anticipare come essi possono agire sotto pressione. Richiede la capacità di ragionamento etico, l’umiltà di esprimere l’incertezza e il coraggio di sfidare il consenso. Queste sono capacità profondamente umane che nessun algoritmo può replicare.
Dobbiamo resistere dalla tentazione di scambiare l’efficienza per la saggezza. Il costo di errori dell’IA non è misurato in database corrotti, ma in decisioni viziate che possono intensificare conflitti, dissipare opportunità diplomatiche e costare vite.
La prossima volta che sei tentato di copiare ed incollare un riassunto generato dall’IA in un rapporto, in un briefing, in una tesi, in un research paper, ricorda:
le analisi di politica/relazioni internazionali non sono un esercizio di copia e incolla.
Sono un prodotto confezionato dal giudizio umano, dal ragionamento etico e dalla saggezza di sapere di non sapere tutto.
Nell’era dell’Intelligenza Artificiale, la nostra più importante capacità intellettiva potrebbe essere il coraggio di dire: “non sono sicuro, ho la necessità di condurre ulteriore analisi”.
Non è un fallimento della tecnologia, ma è l’essenza del mestiere dell’analista.

Sii il primo a commentare