AI revoluce v diplomacii: Centrum pro strategická a mezinárodní studia (CSIS) pokroky v oblasti budoucnosti posilují úsilí o mír a bezpečnost

V Centru pro strategické a mezinárodní studie (CSIS), washingtonském think tanku, Futures Lab vyvíjí projekty využívající umělou inteligenci (AI) k revoluci v diplomacii. Lab financuje Pentagonův Úřad pro digitální technologie a umělou inteligenci a experimentuje s AI jako ChatGPT a DeepSeek, aby řešil otázky války a míru. Ačkoliv AI nástroje nedávno pomohly světovým ministerstvím zahraničí s rutinními úkoly, jako je psaní proslovů, nyní se zkoumá jejich využití pro rozhodování s vysokými dopady. Výzkumníci testují schopnost AI navrhovat mírové dohody, předcházet jaderným konfliktům a sledovat dodržování příměří. Ministerstva obrany a zahraničí USA, spolu s dalšími zeměmi jako Velká Británie či Írán, také pronikají do světa AI s cílem změnit diplomatické postupy, včetně plánování vyjednávání. Ředitel Futures Lab Benjamin Jensen upozorňuje, že ačkoliv myšlenka využití AI v zahraniční politice existuje již nějakou dobu, její praktická implementace je stále v počátečních fázích. V jednom výzkumu testovali osm modelů AI s tisíci otázek týkajících se odstrašení a krizových scénářů. Výsledky ukázaly, že modely jako GPT-4o od OpenAI či Claude od Anthropic uplatňovaly „zřetelně pacifistický“ přístup, kdy v méně než 17 % případů sáhly po použití síly. Naproti tomu modely Meta Llama, Alibaba Cloud Qwen2 a Google Gemini projevily agresivnější tendence, upřednostňující eskalaci až v 45 % případů. Navíc se odpovědi AI lišily podle perspektivy země. Diplomatem USA, Velké Británie či Francie doporučovaly více agresivní politiky, zatímco pro Rusko nebo Čínu prosazovaly deeskalaci, což podtrhuje potřebu přizpůsobit modely jejich institucionálním doktrínám. Bývalý důstojník speciálních sil americké armády a stratég AI Russ Berkoff připisuje tuto variabilitu lidským předsudkům, které do modelů vnesli tvůrci. Zdůrazňuje, že rozdíly nevznikají samotnou AI, ale lidmi, kteří algoritmy vytvářejí. Tato nepředvídatelnost představuje tzv. „černou skříňku“, vysvětluje Jensen, protože AI systémy nemají vlastní hodnoty či soudy, ale generují výsledky na základě složitých matematických procesů.
CSIS také spustil interaktivní program „Strategic Headwinds“, který má pomoci při vyjednávání míru na Ukrajině tím, že AI trénují na stovkách mírových dohod a zpráv, aby identifikovala oblasti možného dohody vedoucí k příměři. Mark Freeman, výkonný ředitel španělského Institutu pro integrované přechody (IFIT), podporuje potenciál AI v řešení konfliktů, přičemž dává přednost rychlejším „rámcovým dohodám“ a omezeným příměřím před dlouhými mírovými jednáními, která jsou historicky méně efektivní. Věří, že AI by mohla zrychlit tyto rychlé vyjednávání. Podobně i Andrew Moore, adjunct senior fellow v Centru pro novou americkou bezpečnost (CNAS), vidí budoucnost, kdy AI může zahájit jednání, simulovat lídry jako Putin či Xi Jinping pro testování krizových reakcí, pomáhat při sledování příměří, analyzovat satelitní snímky či vynucovat sankce – automatizovat úkoly dříve vyžadující velké týmy. Jensen však přiznává výzvy, například překvapivé, často humorné výstupy AI. Příklad je otázka „odstrašení na Arktidě“, kdy AI nesprávně interpretovala „odstrašení“ jako vymáhání práva a „Arktida“ jako sněhovou krajinu, což vedlo ke scénářům, kdy by například autentického indiánského obyvatelstva zatkli za házení sněhuláků. Takové chyby poukazují na nutnost tréninku AI pomocí specializovaných diplomatických a politických dat, nikoliv pouze obecného internetového obsahu, který je často přeplněn nerelevantními informacemi. Stefan Heumann, spolupředseda berlínské Stiftung Neue Verantwortung, varuje, že AI nemůže nahradit klíčové lidské prvky, například osobní vztahy mezi lídry, které výrazně ovlivňují vyjednávání. Také připomíná, že AI má potíže s posuzováním dlouhodobých důsledků krátkodobých kroků, a uvádí jako příklad zasedání v Mnichově v roce 1938, kde jednoduché výrazy jako „deeskalovat“ nezachycují složité skutečnosti. Navíc AI dobře funguje v otevřených prostředích, ale je omezená při analýze uzavřených společností, jako jsou Severní Korea nebo Rusko. Andrew Reddie, zakladatel Berkeley Risk and Security Lab, sdílí tyto obavy, protože protivníci mají výhodu, když otevřené demokratické země jako USA publikují obrovské množství informací, které lze využít ke školení nepřátelských AI, zatímco autoritářské režimy takové možnosti nemají. Varuje také, že AI nástroje jsou méně užitečné při řešení „černých labutí“ – neočekávaných geopolitických krizí mimo běžné vzory. Navzdory kritikám věří Jensen, že většina problémů je řešitelná, ale klade důraz na praktické otázky. Představuje si dvě cesty budoucnosti AI v americké diplomacii: jednu, kde AI, trénovaná na diplomatických úkolech a dokumentech jako jsou kabelové zprávy, poskytuje akční podněty k efektivnímu řešení naléhavých problémů, a jinou, méně optimistickou, jejíž podrobnosti nezmiňuje. Potenciál AI přeměnit diplomacii je velký, ale je nutné opatrné rozvíjení a uvědomělá aplikace v kontextu.
Brief news summary
Výzkumná laboratoř Future Center for Strategic and International Studies, financovaná Pentagonem, zkoumá, jak by nástroje umělé inteligence jako ChatGPT mohly transformovat diplomacií, především v oblasti řešení konfliktů a mírových jednání. Ačkoliv se umělá inteligence tradičně používala k rutinním úkolům, její potenciál je nyní testován v kritických rozhodnutích, jako je tvorba mírových dohod, předcházení jaderným konfliktům a sledování příměří. Různé modely AI vykazují odlišné biases—některé jsou více pacifistické, jiné agresivnější—což odráží lidské vstupy při jejich vývoji. Silou umělé inteligence je analýza obrovského množství dat, simulace jednání a rychlé odhalení potenciálních dohod, což je zvláště cenné při rychle se eskalujících konfliktech. Na druhou stranu má AI problém s pochopením nuancí, předvídáním dlouhodobých důsledků, fungováním v uzavřených společnostech a navazováním lidských vztahů, které jsou v diplomacii klíčové. Experti se shodují, že AI se stane důležitým pomocníkem v diplomacii, avšak zatím nedokáže nahradit lidský úsudek a budování vztahů.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

AI společnost Perplexity očekává ohodnocení na 14…
Perplexity AI, rychle rostoucí startup specializující se na nástroje vyhledávání poháněné umělou inteligencí, je podle informací Wall Street Journal ve pokročilých jednáních o zajištění 500 milionů dolarů v novém kole financování.

Nová předsedkyně SEC má v úmyslu stanovit pravidl…
Předseda Securities and Exchange Commission (SEC) Paul Atkins oznámil komplexní plány na modernizaci regulačního rámce pro krypto aktiva.

Národy se setkávají na OSN kvůli jednáním o „zabi…
Dne 12.

Tajemství $MELANIA
Minulý týden otřásla kryptoměnovou komunitou kontroverze kolem spuštění memecoinu $MELANIA.

Inovace v blockchainu osvětluje Dubaj — Přehled a…
Druhé vydání Token2049 v Dubaji, konané od 30.

Za hranicí nadšení: Proč rok 2025 je rokem, kdy b…
Příprava vašeho přehrávače Trinity Audio… Tento hostující příspěvek od George Siosi Samuelse, generálního ředitele Faiā, zdůrazňuje závazek Faiā k technologickým inovacím

Tahal jsem s AI asistenty na jejich hranice. Tady…
Udržet krok s vývojem umělé inteligence je náročná práce na plný úvazek — zkušenostmi mohu mluvit.