Військові США використовували ШІ Антропік Клода у ударі по Ірану, незважаючи на заборону Трампа
Brief news summary
Згідно з повідомленнями, військові США використали модель штучного інтелекту Claude від Anthropic у спільній місії США та Ізраїлю проти Ірану, незважаючи на наказ колишнього президента Дональда Трампа розірвати федеральні зв'язки з компанією. За даними The Wall Street Journal та Axios, Claude відіграв ключову роль у зборі розвідки, виборі цілей та симуляціях боїв. Трамп називав Anthropic «радикальною лівою AI-компанією» та заборонив її технології у федеральному використанні через ідеологічні розбіжності. Ситуація загострилася, коли, за повідомленнями, Claude було застосовано у рейді з метою затримання венесуельського президента Ніколаса Мадуро, що порушувало політику Anthropic, за якою забороняється використання її AI для актів насильства чи спостереження. Це порушення погіршило стосунки між Трампом, Пентагоном і Anthropic, а міністр оборони Піт Хегсетх засудив «зухвалість і зраду» компанії та вимагав повного доступу до Claude, із можливістю до шести місяців на перехід у зв’язку зі складністю моделі. Одночасно генеральний директор OpenAI Сам Альтман повідомив про угоду з Пентагоном щодо інтеграції AI-інструментів, таких як ChatGPT, у секретні військові мережі, підкреслюючи зростаючу залежність оборонних структур від AI попри постійні суперечки.Зазначається, що військові США нібито використовували модель штучного інтелекту Claude компанії Anthropic для керівництва своїми атаками на Іран, незважаючи на рішення Дональда Трампа, оголошене всього за кілька годин раніше, про припинення всіх контактів з компанією та її AI-інструментами. The Wall Street Journal та Axios повідомили, що Claude був використаний під час масштабної спільної американсько-ізраїльської атаки на Іран, яка розпочалася у суботу. Це підкреслює виклик для військових США щодо вилучення передових AI-інструментів із своїх операцій, коли технологія стала глибоко інтегрованою у виконання місій. Згідно з інформацією від Journal, командування армії США використовувало Claude для розвідки, підбору цілей та проведення бойових симуляцій. В п’ятницю, за кілька годин до початку атаки на Іран, Трамп наказав усім федеральним агентствам негайно припинити використання Claude. Він засудив Anthropic у Truth Social як «радикальну ліву компанію з штучним інтелектом, якою керують люди, які не мають уявлення про справжній світ». Ця напружена суперечка виникла через використання Claude військовими США під час рейду в січні, спрямованого на затримання венесуельського президента Ніколаса Мадуро. Anthropic виступила з протестом, посилаючись на умови використання, які забороняють застосування Claude для насильницьких цілей, розробки зброї або стеження. З того часу стосунки між Трампом, Пентагоном та Anthropic поступово погіршувалися.
У детальному дописі на платформі X у п’ятницю міністр оборони Піт Хегсет звинуватив Anthropic у «зверхності та зраді», додавши, що «воїни Америки ніколи не будуть заручниками ідеологічних забаганок Big Tech». Хегсет вимагав повного та без обмежень доступу до всіх моделей AI від Anthropic для будь-яких законних цілей. Він також відзначив складність швидко роз’єднати військові системи від цього інструменту штучного інтелекту через його широку адаптацію. Він зазначив, що Anthropic продовжить надавати послуги «не більше ніж на шість місяців, щоб забезпечити безшовний перехід до кращого та більш патріотичного сервісу». Після розколу з Anthropic компанія-конкурент OpenAI заповнила цю нішу. Генеральний директор OpenAI Сем Альтман заявив, що досяг домовленості з Пентагоном щодо розгортання інструментів компанії, зокрема ChatGPT, у його засекреченій мережі.
Watch video about
Військові США використовували ШІ Антропік Клода у ударі по Ірану, незважаючи на заборону Трампа
Try our premium solution and start getting clients — at no cost to you