JAV kariuomenė naudojo „Anthropic“ kalbos modelį „Claude AI“ Irako avarijoje, nepaisant Trampo draudimo
Brief news summary
Pasakų teigimu, JAV kariuomenė naudojo Anthropic dirbtinio intelekto modelį Claude bendroje JAV ir Izraelio misijoje, skirtoje Irano taikymui, nepaisant buvusio prezidento Donaldo Trumpo nurodymo nutraukti federalinius ryšius su šia įmone. Claude vaidino svarbų vaidmenį žvalgybos rinkime, taikinių parinkime ir mūšių simuliacijose, rašo The Wall Street Journal ir Axios. Džordžas Trumpas įvardijo Anthropic kaip „Radikaliosios Kairės dirbtinio intelekto įmonę“ ir uždraudė federalinį jos technologijų naudojimą dėl ideologinių skirtumų. Situaciją paaštrino faktas, kad Claude tariamai buvo panaudotas Venezuelos prezidento Nicolás Maduro pagrobimui, pažeidžiant Anthropic politiką, draudžiančią naudoti dirbtinį intelektą smurto ar stebėjimo veiklai. Šis pažeidimas suglumino santykius tarp Trumpo, Pentagono ir Anthropic; Gynybos sekretorius Pitas Hegsetas pasmerkė įmonės „įžūlumą ir išdavystę“, reikalavdamas visiško prieigos prie Claude, su galimybe per šešis mėnesius atlikti perėjimą dėl modelio sudėtingumo. Tuo pat metu OpenAI vadovas Samas Altmanas atskleidė Pentagonu sudarytą susitarimą integruoti dirbtinio intelekto įrankius, tokius kaip ChatGPT, į slaptas karines tinklų sistemas, pabrėžiant vis labiau priklausomybę nuo dirbtinio intelekto gynybos operacijose nepaisant nuolatinių prieštaravimų.JAV kariuomenė tariamai naudojo Anthropic sukurto dirbtinio intelekto modelį Claude, kad vadovautų atakai į Iraną, nepaisant Donald Trump sprendimo, paskelbto vos kelios valandos anksčiau, nutraukti visas ryšius su šia įmone ir jos dirbtinio intelekto įrankiais. The Wall Street Journal ir Axios pranešė, kad Claude buvo naudojamas per plačią JAV ir Izraelio bendrą ataką į Iraną, kuri prasidėjo šeštadienį. Tai pabrėžia sunkumus, su kuriais susiduria JAV kariuomenė, kai jos pažangios dirbtinio intelekto priemonės yra integruotos į misijų veiksmus ir dabar jas reikėtų pašalinti. Pasak žurnalo, JAV kariuomenės vadovybė naudojo Claude žvalgybos tikslais, taikinių parinkimui ir mūšio lauko simuliacijoms. Penktadienį, vos kelios valandos prieš Iraną ataką, Trumpas įsakė visoms federalinėms agentūroms nedelsiant nustoti naudoti Claude. Jis pasmerkė Anthropic socialiniame tinkle Truth Social kaip “Radikalios kairės dirbtinio intelekto įmonę, kurią valdo žmonės, neturintys supratimo apie tikrąjį pasaulį. ” Ši įkaitusi ginčas įsiplieskė dėl JAV kariuomenės naudojimo Claude sausio reido metu, siekiant suimti Venesuelos prezidentą Nicolás Maduro. Anthropic protestavo, nurodydama savo naudojimo taisykles, draudžiančias naudoti Claude smurtiniams tikslams, ginklų kūrimui ar stebėsenai. Nuo to įvykio santykiai tarp Trumpo, Pentagonas ir Anthropic nuolat blogėjo.
Penktadienį išsamiai pasisakęs socialiniame tinkle X, Krašto apsaugos sekretorius Pete Hegseth apkaltino Anthropic “puikavimusi ir išdavyste”, pridurdamas, kad “Amerikos kariai niekada nebus laikomi įsikibę į Big Tech ideologinius norus. ” Hegseth reikalavo visiško ir neriboto prieigos prie visų Anthropic dirbtinio intelekto modelių, skirtų bet kokiems teisėtiems tikslams. Tačiau jis taip pat pripažino, kad dėl plačios įsidiegimo sudėtinga greitai atjungti karinius sistemus nuo šio dirbtinio intelekto įrankio. Jis paminėjo, kad Anthropic toliau teiks paslaugas “ne ilgiau kaip šešis mėnesius, leidžiant sklandžiai pereiti prie geresnės ir patriotiškesnės paslaugos. ” Po išsiskyrimo su Anthropic, rinkoje atsirado konkurentė OpenAI. Jos generalinis direktorius Samas Altmanas teigė, kad pasiekė susitarimą su Pentagonu dėl įmonės įrankių, įskaitant ChatGPT, diegimo jų slaptame tinkle.
Watch video about
JAV kariuomenė naudojo „Anthropic“ kalbos modelį „Claude AI“ Irako avarijoje, nepaisant Trampo draudimo
Try our premium solution and start getting clients — at no cost to you