Un tempo, le profezie erano considerate visioni enigmatiche, interpretate attraverso simboli e metafore. Oggi, queste si manifestano sotto forma di modelli predittivi avanzati, alimentati da enormi quantità di dati: movimenti militari, flussi finanziari, attività sui social media. Questi sistemi non si limitano a prevedere il futuro; spesso, lo influenzano attivamente.
Ad esempio, il GDELT Project monitora continuamente le notizie globali in oltre 100 lingue, identificando eventi geopolitici e sociali in tempo reale. Questo database è stato utilizzato per analizzare e prevedere conflitti e instabilità politica in diverse regioni del mondo.
La RAND Corporation, un think tank statunitense, ha pubblicato nel 2019 il rapporto “Extending Russia: Competing from Advantageous Ground”, in cui si delineano strategie per indebolire l’economia russa attraverso sanzioni e altre misure. Alcune di queste strategie sembrano essersi concretizzate negli anni successivi, sollevando interrogativi sull’interazione tra previsione e attuazione delle politiche. La RAND suggerisce che “una pressione esterna mirata può indurre la Russia a sovraccaricare la propria economia in ambiti non strategici.”
Nel campo della difesa planetaria, la NASA utilizza sistemi come Sentry, un programma automatizzato che monitora costantemente gli asteroidi vicini alla Terra per valutare il rischio di impatto nei prossimi 100 anni. Ad esempio, l’asteroide 2024 YR4, scoperto nel dicembre 2024, ha inizialmente mostrato una probabilità di impatto con la Terra dello 0,3% entro il 2032. Osservazioni successive, supportate dal James Webb Space Telescope, hanno ridotto questa probabilità, evidenziando l’importanza di un monitoraggio continuo e dell’aggiornamento dei modelli predittivi.
L’uso crescente dell’intelligenza artificiale in ambito geopolitico solleva questioni significative. Un articolo della RAND Corporation del 2025 sottolinea che, sebbene l’IA abbia il potenziale per trasformare gli affari globali, è fondamentale comprendere i suoi limiti e le implicazioni etiche del suo utilizzo nelle decisioni politiche.
C’è una linea sottile che collega il passato oscuro, il presente razionale e un futuro già scritto ma ancora inaccessibile. Non è fantasia. È struttura. Il MIT ha dimostrato che modelli predittivi possono anticipare il rischio di guerra con un margine di accuratezza superiore al 70%
Abbiamo ripreso in mano le quartine di Nostradamus, non per crederci, ma per vedere se, sotto i simboli e le metafore, c’era qualcosa che oggi ha un senso. Le abbiamo affidate a un’intelligenza artificiale. Non perché cercassimo una risposta, ma per vedere che tipo di domanda avrebbe posto. Il risultato non è stato una verità. È stato un pattern.
Alcune frasi, come “dal cosmo una palla di fuoco sorgerà”, hanno iniziato a vibrare con rapporti NASA su oggetti near-Earth. Non è predizione. È connessione.
Altre, come “il regno sarà segnato da guerre crudeli, nemici dentro e fuori sorgeranno”, sembrano la sinossi di un documento RAND. Non uno qualunque, ma quello del 2019: Extending Russia: Competing from Advantageous Ground.
Un report reale. Un documento strategico in cui si ipotizza come “sovraccaricare l’economia russa” per innescarne la crisi interna. Una profezia rovesciata: prima la scrivi, poi la realizzi.
In mezzo, invisibile e fondamentale, l’AI predittiva.
Non quella che completa le frasi. Ma quella che corre nei sistemi militari, nei laboratori della difesa, nei database finanziari. Quella che viene addestrata non per immaginare… ma per anticipare, movimenti di popolazione, tensioni etniche, crolli di mercati, reazioni a un attacco. È già usata.
La RAND la studia. BlackRock la implementa. L’intelligence la considera “un moltiplicatore decisionale”. Alcuni la chiamano oracolo digitale. Ma l’oracolo non predice: orienta.
Allora succede qualcosa. Le parole del passato, le simulazioni del presente e i dati grezzi del mondo iniziano a sincronizzarsi.
Non è magia. È calcolo. E forse illusione.
Ma è reale.
Un algoritmo incrocia una quartina su due “rocce che si scontreranno” con un modello predittivo sul rischio di conflitto nel Pacifico. Taiwan.
Risultato: 67% di probabilità di escalation entro il 2026.
È una coincidenza o è una profezia programmata?
Perché a un certo punto diventa difficile distinguere tra chi prevede e chi decide.
La RAND scrive. L’AI connette. Noi interpretiamo.
E forse, nel momento stesso in cui crediamo a una previsione, cominciamo a renderla vera.
È questo il pericolo.
Nostradamus parlava di “una nuova città con acque avvelenate”.
L’AI ci mostra dati su città sperimentali, dove un errore di progettazione energetica potrebbe causare disastri sistemici. Il MIT ha già lanciato l’allarme: troppe smart city nascono senza piani di sicurezza su blackout digitali o inquinamento invisibile. Non è mistero. È ingegneria senza etica.
Un tempo le profezie erano simboli, visioni da decifrare. Oggi hanno la forma di modelli predittivi, alimentati da milioni di dati: flussi migratori, tensioni etniche, andamento delle borse, disinformazione virale. I sistemi che le generano sono reali. Sono usati. E producono non solo previsioni, ma orientamenti.
Alcuni modelli AI hanno previsto con giorni di anticipo il crollo di Kabul. La RAND, invece, ha simulato escalation Taiwan-USA-Cina con percentuali crescenti entro il 2026.
In questo contesto, le quartine di Nostradamus non sono solo curiosità storiche. Sono architetture linguistiche aperte, in cui l’AI, allenata a riconoscere pattern, trova eco.
“Due grandi rocce si scontreranno.”
“Un re sorgerà dalle acque.”
“Il giardino del mondo sarà avvelenato.”
Sono immagini, ma iniziano ad allinearsi a scenari RAND, a mappe geopolitiche, a simulazioni di disastri ambientali nelle smart city in costruzione.
A un certo punto diventa difficile distinguere tra previsione e programmazione.
Se l’AI predice un evento e chi decide vi si prepara, lo previene o… lo attiva?
Forse non è più una questione di chi scrive il futuro.
Ma di come viene scritto: per pattern, per modelli, per autoavveramenti.
E mentre cerchiamo di capire se le profezie avevano ragione,
il sistema le sta già trasformando in istruzioni operative.
La distinzione tra previsione e pianificazione diventa sempre più sfumata. Se un modello predittivo indica una probabilità significativa di un evento, i decisori politici potrebbero essere tentati di agire preventivamente, trasformando una possibilità in realtà. Ciò solleva la questione: stiamo interpretando le profezie o le stiamo inconsapevolmente realizzando?
Il 2025 potrebbe essere l’anno in cui profezie, algoritmi e geopolitica si fondono in un gioco al massacro dove nessuno — né umani né AI — controlla davvero il finale.
La verità? Forse è nascosta in una quartina non ancora decifrata… o nell’ultimo report della Rand Corporation, chiuso a chiave in un server sommerso.
Le profezie non si avverano. Si eseguono.
– 2025, tra ombre e algoritmi