Poate inteligența artificială să prezică războaiele? Acum încearcă să o facă, utilizând modele care citesc imagini satelitare, fluxuri financiare și rețele sociale

Poate inteligența artificială să prezică războaiele? Acum încearcă să o facă, utilizând modele care citesc imagini satelitare, fluxuri financiare și rețele sociale
Imagine Nave militare și mine în Golful Persic Unele modele AI sunt folosite să prezică viitoarele conflicte sau soarta celor actuale
De la Tigray la Iran, puțini au reușit să prezică și au eșuat în anticiparea conflictelor din trecut. Câteva modelele AI care prezic violența cu 36 de luni în avans stârnesc speranțe. Potrivit acestora, ar fi 20% șanse de prăbușire a regimului iranian până la finele lui 2026? Sistemul AI al RAND nu a primit informații clasificate, și tot a dat un verdict mai îndrăzneț decât mulți experți umani.

Pe fondul unui armistițiu precar între SUA și Iran, experții se luptă să prezică în ce nouă fază va intra conflictul. The Economist a solicitat RAND, renumit think-tank american, să testeze noul său sistem AI de prognoză strategică. Publicația a încercat să estimeze dacă o revoltă populară în Iran este iminentă. Sistemul cunoscut drept Integrated Strategic Forecasting (ISF) a estimat probabilitatea prăbușirii sau înlocuirii regimului iranian până la finele lui 2026 la 20%. Este o cotă mai ridicată decât s-ar aventura mulți experți umani să susțină.

Există rezerve importante. Prognoza a fost produsă fără informații clasificate, iar intrările și ieșirile nu au fost verificate de analiști umani, așa cum se obișnuiește pentru prognozele comandate de agențiile guvernamentale americane, a subliniat Anthony Vassalo. El este șeful departamentului de tehnologie predictivă al RAND, fost angajat la Biroul Directorului Național al Serviciilor de Informații.

Totuși, 20% este o cifră. Nu o intuiție, nu o metaforă, o probabilitate calculată. Și aceasta face din ea ceva calitativ diferit față de ce pot produce analiștii tradiționali.

VIEWS, modelul care a identificat corect 7 din 10 cele mai mortale conflicte din 2024

Violence and Impacts Early-Warning System (VIEWS) e un sistem premiat de prognozare a conflictelor. Acesta a fost dezvoltat de Institutul de Cercetare a Păcii din Oslo (PRIO) și Universitatea Uppsala. Acesta produce lunar previziuni pentru conflicte violente cu până la 36 de luni în avans. Folosind tehnici de machine learning și un sistem masiv de prelucrare a datelor, el anticipează unde și cu ce intensitate este probabil să escaladeze conflictele armate. Modelul VIEWS a demonstrat o capacitate predictivă solidă. El a identificat corect 7 din cele 10 cele mai mortale țări în 2024 și 6 din 10 în 2023.

Conform celei mai recente prognoze VIEWS, Ucraina, Palestina/Israel, Sudan, Pakistan și Nigeria sunt proiectate să înregistreze cele mai ridicate bilanțuri de victime ale conflictelor în 2026. Prognoza pentru Sudan este deosebit de îngrijorătoare. Numărul estimat de morți pentru 2026 a crescut mai mult decât dublat față de luna precedentă. Situația reflectă deteriorarea rapidă a situației de securitate.

„Prognoza noastră evidențiază unde este cel mai probabil să se intensifice violența, oferind guvernelor, ONU și organizațiilor umanitare o bază mai solidă pentru planificare timpurie și salvarea de vieți”, a declarat Håvard Hegre, profesorul PRIO care conduce echipa VIEWS.

Ce citesc câteva modele, și ce nu pot să prezică

Progresia în rețelele neuronale profunde mută predicția conflictelor de la ghicire la prognoze mai precise, bazate pe date. Sistemele moderne de deep learning pot procesa seturi de date masive și diverse. Ele pot fi imagini satelitare care arată mișcări de trupe, fluxuri financiare care relevă stres economic, indicatori climatici care prognozează deficite de resurse și semnale din rețelele sociale care captează sentimentul public. Aceste modele nu doar analizează variabile. Ele dezvoltă reprezentări interne ale dinamicii conflictului care sunt ascunse, în continuă schimbare și extrem de neliniare.

Există însă o limită structurală fundamentală. Modelele de deep learning excelează în detectarea tiparelor, dar nu explică în mod inerent de ce apar acele tipare. Un model poate prognoza un conflict pe baza creșterii prețurilor la mărfuri, scăderii PIB și polarizării online crescute. Dar, fără structuri suplimentare, nu poate distinge cauza de coincidență. Factorii de decizie ar putea acționa pe baza unor corelații care s-ar putea schimba în timp. De aceea, încorporarea inferenței cauzale în procesele de machine learning nu este opțională, ci esențială.

Gemini e conservator, DeepSeek e îndrăzneț, și niciun model nu știe de ce

Haifeng Xu, profesor asistent de informatică la Universitatea din Chicago, a proiectat un benchmark pentru a măsura capacitățile diferitelor modele AI în prognoză. El a constatat că fiecare model are tipare ușor diferite. Modelele precum Gemini de la Google tind să fie mai „conservatoare” și preferă să „rămână aproape de sursele de date disponibile cu ajustări mici”. Alte modele, precum DeepSeek tind să facă „prognoze probabilistice îndrăznețe, uneori extreme”.

Un studiu recent al profesorilor de la King’s College Londra oferă poate cel mai clar exemplu al divergenței dintre AI și judecata umană: plasate în simulări de jocuri de război, modelele AI au escaladat conflictele amenințând cu atacuri nucleare în 95% din scenarii.

Nici un analist uman, oricât de pesimist, nu ar ajunge la 95%. Ceea ce ridică o întrebare serioasă: modele care nu pot explica raționamentul lor ar trebui să informeze decizii despre război și pace?

Etiopia 2020, comunitatea internațională a dat greș fără AI

Riscul neanticipării conflictelor nu este teoretic. Resurgența violenței în Etiopia în 2020 a fost largă și fatal neanticipată de comunitatea internațională. După ce a câștigat Premiul Nobel pentru Pace în 2019, premierul Abiy Ahmed a trimis trupe în regiunea Tigray în noiembrie 2020, deschizând calea unora dintre cele mai intense violențe din istoria recentă a Etiopiei . A fost un conflict pe care nimeni nu îl anticipase cu suficient timp înainte pentru a interveni diplomatic sau umanitar.

Aceasta este miza reală a prognozării prin AI. Nu spectacolul unui algoritm care prezice războaie, ci fereastra de timp câștigată pentru ca actorii umanitari, diplomatici și de securitate să acționeze înainte ca violența să devină ireversibilă.

Un instrument util, dacă ești pregătit să-i înțelegi limitele

Unii analiști avertizează că prognoze mai precise ar putea stimula actorii globali, în special adversarii, să se comporte mai imprevizibil pentru a evita anticiparea. Robin Hanson, profesor asociat de economie la George Mason University, a asemănat realitatea geopolitică emergentă cu un meci de tenis: dacă un jucător știe că adversarul e conștient de frecvența cu care lovitura va fi trimisă într-o anumită direcție, poate randomiza mișcarea pentru a elimina avantajul celuilalt. „Lumea este extrem de incertă și greu de prezis”, a spus Hanson.

„Aceste prognoze trebuie privite ca scenarii cu cea mai bună estimare, nu ca certitudini. Multe forțe (diplomație, consolidare a păcii, acțiune umanitară și intervenție geopolitică) pot schimba traiectoriile conflictelor. Cu toate acestea, rezultatele pot sprijini actorii de teren în prioritizarea atenției și resurselor acolo unde vor fi cel mai probabil necesare”, a subliniat Hegre de la PRIO.

Sistemele AI nu înlocuiesc judecata umană în probleme de război și pace. Ele adaugă, la datele pe care le procesăm deja, o perspectivă calculată și scalabilă, imperfectă, dar tot mai greu de ignorat.

0 comentarii Comentarii