«Останні новини: Президент Дональд Трамп наказує кожному федеральному агентству припинити використання технологій Anthropic, американської компанії ШІ. Трамп оголосив про це в публікації Truth Social у п’ятницю, зазначивши, що агентства матимуть шість місяців, щоб поступово припинити використання продуктів Anthropic. Оригінальна історія така: Адміністрація повідомила Anthropic про», — пишуть на: www.cnn.com
Головні новини: Президент Дональд Трамп наказує кожному федеральному агентству припинити використання технологій Anthropic, американської компанії ШІ.
Трамп оголосив про це в публікації Truth Social у п’ятницю, зазначивши, що агентства матимуть шість місяців, щоб поступово припинити використання продуктів Anthropic.
Оригінальна історія така:
Адміністрація повідомила Anthropic, що компанія має час до 17:01 за східним часом у п’ятницю, щоб підкоритися вимогам Пентагону, інакше її позначать як «ризику ланцюжка поставок», тип позначення, який зазвичай зарезервований для компаній, які вважаються продовженням іноземних супротивників.
Пентагон, який використовує систему Claude AI від Anthropic у своїх секретних мережах, хоче мати можливість використовувати її для «всіх законних цілей». Але Anthropic має дві червоні лінії для Пентагону: що Claude не використовуватиметься в автономній зброї та що він не використовуватиметься для масового стеження за громадянами США.
Anthropic у четвер оголосив, що не має наміру погоджуватися.
«Погрози не змінюють нашої позиції: ми не можемо з чистою совістю задовольнити їхнє прохання», — йдеться в заяві генерального директора компанії.
Еміль Майкл, заступник секретаря Пентагону з досліджень та інженерії, сказав в інтерв’ю Bloomberg, що вони перебувають «на фінальній стадії» угоди з Anthropic, яка «погоджувалась на те, що вони хотіли по суті», коли було зроблено заяву.
Пентагон стверджує, що він не зацікавлений у використанні штучного інтелекту для обох цілей і що йому потрібна свобода використання технології, яку він ліцензує.
«Це простий запит здорового глузду, який не дозволить Anthropic поставити під загрозу важливі військові операції та потенційно піддати ризику наших бійців», — написав на X речник Пентагону Шон Парнелл. «Ми не дозволимо ЖОДНІЙ компанії диктувати умови щодо того, як ми приймаємо оперативні рішення».
Це стало головним моментом у вівторок на зустрічі з високими ставками в Пентагоні між міністром оборони Пітом Хегсетом і генеральним директором Anthropic Даріо Амодеї.
Хоча джерело, знайоме з ситуацією, заявило, що зустріч була сердечною, офіційні особи Пентагону не лише погрожували скасувати контракт Anthropic з ними на суму 200 мільйонів доларів, але також погрожували призначенням, яке могло загрожувати їхнім прибуткам.
Claude з Anthropic був першою моделлю штучного інтелекту, яка працювала в секретних мережах військових. Минулого літа компанія уклала з Пентагоном контракт на суму до 200 мільйонів доларів. Інші великі компанії штучного інтелекту, такі як OpenAI, уклали угоди з Пентагоном лише щодо своїх несекретних мереж.
У рамках «політики прийнятного використання» Anthropic у контракті є заборона на використання Claude для масового спостереження та автономної зброї.
«Ця суперечка виникає в незручний момент, оскільки, з одного боку, база користувачів у Міністерстві оборони любить Anthropic, любить Клода, і каже, що їхні обмеження на використання, принаймні з моїх розмов, ніколи не застосовувалися», — сказав Грегорі Аллен, старший радник Центру стратегічних і міжнародних досліджень, в ефірі Bloomberg Radio.
Але Пентагон не хоче бути обмеженим політикою компанії. Представник Пентагону сказав CNN: «Ви не можете керувати тактичними (операціями) за винятком», і «законність є відповідальністю Пентагону як кінцевого користувача».
На думку Пентагону, він не хоче опинитися в центрі ситуації з національною безпекою, вимагаючи дозволу компанії та скидання огорожі.
Розірвання зв’язків з Anthropic також може стати головним болем для Пентагону, враховуючи, що їм доведеться замінити будь-які внутрішні системи, які використовують Claude. Хоча офіційний представник Пентагону сказав, що систему Grok AI Ілона Маска можна використовувати в секретних умовах, Grok не вважається таким передовим, як Клод.
Втрата контракту на 200 мільйонів доларів не становила б загрози існуванню Anthropic, яка нещодавно оцінювалася приблизно в 380 мільярдів доларів. Більший ризик полягає в тому, що це буде позначено як ризик ланцюжка поставок, а це означає, що будь-яка компанія, яка співпрацює з американськими військовими, повинна буде довести, що вони не торкаються нічого, пов’язаного з Anthropic, у своїй роботі з Пентагоном. Значна частина успіху Anthropic пов’язана з її корпоративними контрактами з великими компаніями, багато з яких можуть мати контракти з Пентагоном.
«Це означає, що існуюча клієнтська база Anthropic, якась значна її частина, може випаруватися через те, що вони мають державні контракти або можуть захотіти їх у майбутньому», — сказав Адам Коннор, віце-президент із технологічної політики в центрі американського прогресу, вашингтонському мозковому центрі.
Дженсен Хуанг, генеральний директор великого виробника чіпів для штучного інтелекту Nvidia, сказав, що, хоча він сподівається, що Пентагон і Anthropic зможуть дійти згоди, «якщо це не буде вирішено, це ще не кінець світу», оскільки Пентагон може працювати з іншими компаніями зі штучним інтелектом, і у Anthropic є інші клієнти.
Раніше цього тижня Пентагон заявив, що він також розгляне можливість змусити Anthropic співпрацювати з ними через Закон про оборонні закупівлі, закон 1950 року, який «надає президенту значні надзвичайні повноваження контролювати національну промисловість», згідно з Радою з міжнародних відносин. Незрозуміло, чи зможе Пентагон змусити Anthropic співпрацювати з ними через DPA і як він зможе вважати їх ризиком для ланцюга поставок.
За словами Коннора, Anthropic не єдина компанія, якій загрожує ця суперечка. Погроза Пентагону є сигналом для інших компаній ШІ, які прагнуть заробити мільйони, продаючи свої послуги уряду.
«Я думаю, що в ширшому сенсі це надсилає повідомлення іншим компаніям штучного інтелекту, з якими вони ведуть переговори, щоб переконатися, що вони не намагаються встановити будь-які обмеження на використання ШІ», — сказав Коннор.
Якби Пентагон був просто незадоволений умовами Anthropic для своєї моделі, він міг би просто розірвати контракт і отримати потрібну йому модель ШІ від іншої компанії, сказав Алан Розенштейн, професор права в Університеті Міннесоти.
«Чого насправді хоче уряд, так це продовжувати використовувати технологію Anthropic, і він просто використовує всі можливі джерела впливу», – сказав він. «Це дуже потужне джерело впливу».
У Пентагоні заявили, що якщо Anthropic не погодиться з умовами до 17:01, вони скасують контракт і вважатимуть компанію «ризиковою для ланцюжка поставок». Незрозуміло, чи буде це оприлюднено.
Також неясно, чи система Claude AI від Anthropic негайно зникне з військових систем – і чим її замінять. Також виникає питання, як діятимуть інші військові підрядники, які працюють з Anthropic. У випадках, коли іноземні компанії вважалися ризиковими, підприємства мали певний час, щоб довести, що вони розірвали зв’язки з ризиковою компанією.
Але якщо Пентагон таки виконає свою загрозу, це стане безпрецедентною ескалацією того, що вважається однією з найкращих і найуспішніших існуючих моделей ШІ.
«Взяти вітчизняного чемпіона зі штучного інтелекту в той час, коли Білий дім каже, що гонка штучного інтелекту з Китаєм еквівалентна космічній гонці під час холодної війни з Радянським Союзом — ви не хочете взяти одну з перлин у короні вашої галузі та підпалити її через щось подібне», — сказав Аллен у Bloomberg. «Є кращий спосіб вирішити цю суперечку, ніж абсолютистська позиція, яку зайняла адміністрація».
Кріс Ісідор з CNN взяв участь у цьому звіті.
