Pentagon nařídil odstranění antropického AI kvůli obavám o národní bezpečnost
Brief news summary
Ministerstvo obrany USA nařídilo do 180 dnů odstranit AI produkty společnosti Anthropic ze všech vojenských složek s odůvodněním nepřijatelných rizik v dodavatelském řetězci. Jedná se o první případ, kdy se americká firma ocitla pod takovými omezeními, dříve byly tato opatření vyhrazena pouze zahraničním firmám, jako je Huawei. Černá listina se týká klíčových oblastí národní bezpečnosti, včetně jaderných zbraní, protiraketové obrany a systémů kybernetické války, přičemž vláda nařídila zástupcům státu přestat používat nástroje Anthropic na zakázkách Ministerstva obrany. Rozhodnutí přichází po neúspěšných jednáních ohledně omezení modelu AI Claude od Anthropic, který Pentagon odmítl, s tvrzením, že stávající zákony dostačují. Claude, který je unikátně nasazován na tajných systémech Pentagonu, podporuje zpravodajskou analýzu a cílení v konfliktních zónách, například v Íránu. Na to Anthropic reagoval podáním soudních žalob, v nichž tvrdí nezákonnou odvetu a porušení svobody projevu. Bílý dům podporuje krok Pentagonu, zdůrazňujíc národní bezpečnost. Mezitím, po neúspěchu jednání s Anthropic, získala společnost OpenAI kontrakt s Pentagonem, což odráží napětí ohledně etických otázek a kontroly nad pokročilými AI technologiemi.Ministerstvo obrany oficiálně nařídilo vrchním velitelům americké armády odstranit produkty AI společnosti Anthropic ze svých systémů do 180 dnů, jak uvádí interní memorandum z 6. března, které získala CBS News. Tento pokyn, vydaný den poté, co Pentagon označil Anthropic za riziko v dodavatelském řetězci, varuje, že AI od Anthropic představuje nepřijatelnou hrozbu pro všechny systémy a sítě Ministerstva obrany. Podpisem memoranda je pověřena vedoucí CIO Kirsten Davies, která zdůrazňuje rozsáhlá opatření, která musí velitelé přijmout k odstranění AI od Anthropic z klíčových systémů národní bezpečnosti, včetně jaderných zbraní, protiraketové obrany a kybernetických válek. Také nařizuje, aby každý dodavatel pracující s Pentagonem přestal používat produkty Anthropic na projektech souvisejících s obranou do 180 dnů. Davies varovala, že protivníci by mohli využít zranitelnosti v operacích Pentagonu, což by mohlo vést ke katastrofickým rizikům pro vojáky. Zdůraznila, že pouze ona může schválit výjimky, které budou uděleny výhradně pro klíčové národní bezpečnostní operace bez životaschopných alternativ, za podmínky předložení plánů mitigace rizik. Vyšší představitel Pentagonu potvrdil pravost memoranda, zatímco Anthropic k tomu nemělo okamžitou komentář. Tato nebývalá akce federální vlády znamená poprvé, kdy byla americká společnost označena za riziko v dodavatelském řetězci; dřívější omezení se týkala zahraničních firem, například Huawei.
Tento krok následuje po patové situaci ohledně požadavku Anthropic na dvě "červené čáry", které zakazují americké armádě používat jejich AI Claude k masovému sledování Američanů nebo k plně autonomním zbraním – opatření, jež CEO Anthropic Dario Amodei označil za odraz amerických hodnot. Pentagon však trval na tom, že použití Claude pro všechny zákonné účely je možné bez omezení, aže zakázané způsoby využití již jsou zakázány. Podle důvěryhodných zdrojů Claude podporuje americké vojenské operace v rámci boje proti Íránu. Anthropic zůstává jedinou společností v oblasti AI, jejíž modely jsou nasazeny na utajovaných systémech Pentagonu. Po neúspěšných jednáních minulý měsíc oznámil hlavní rival OpenAI, že získal smlouvu s Pentagonem. Stejného dne, kdy bylo memorandum rozesláno, Anthropic podalo dva žaloby proti federální vládě, tvrdíc, že zařazení do dodavatelského řetězce je nezákonnou odvetou za chráněný projev a že žádný zákon takové kroky nepovoluje. Mluvčí Bílého domu Liz Huston kritizovala žalobu s tím, že prezident Trump "nikdy nedovolí radikální levice, woke společnosti, ohrozit naši národní bezpečnost tím, že bude určovat, jak nejmocnější a největší armáda na světě funguje. " Zdroj obeznámený s vojenskou funkcí Claude uvádí, že hlavní úlohou tohoto systému je rychle analyzovat zpravodajské zprávy tím, že identifikuje vzory, shrnuje zjištění a zvýrazňuje relevantní data efektivněji než lidské analytiky. Ve své zprávě bývalý admirál námořnictva Mark Montgomery, který nyní působí ve Foundation for Defense of Democracies, uvedl, že vojenské operace denně řeší asi tisíc potenciálních cílů a většinu z nich zasáhne do čtyř hodin, přičemž AI umožňuje takovou škálu a rychlost s tím, že stále jsou do procesu zapojeni lidé – což je v předchozích kampaních nedostižné tempo.
Watch video about
Pentagon nařídil odstranění antropického AI kvůli obavám o národní bezpečnost
Try our premium solution and start getting clients — at no cost to you