Суд заборонив Пентагону брендувати Anthropic як загрозу національній безпеці

Decrypt

Коротко

  • Федеральний суддя заборонив Пентагону називати Anthropic ризиком для ланцюгів постачання, постановивши, що цей крок, імовірно, порушив права компанії на Першу поправку та належну правову процедуру.
  • Спір виник через контракт у сфері AI (AI contract) на суму 200 мільйонів доларів, укладений Департаментом оборони, який зірвався після того, як Anthropic відмовилася дозволити використання своєї моделі для масового нагляду або для смертельної автономної війни.
  • Рішення тимчасово відновлює становище Anthropic у відносинах із федеральними підрядниками та може вплинути на те, як компанії у галузі AI встановлюють ліміти використання в держконтрактах.

Федеральний суддя заборонив Пентагону називати Anthropic ризиком для ланцюгів постачання, постановивши в четвер, що урядова кампанія проти компанії зі сфері AI порушила її права за Першою поправкою та належну правову процедуру. Суддя федерального окружного суду США Рі́та Лін видала попередню судову заборону (preliminary injunction) у Північному окрузі Каліфорнії через два дні після слухань, де вислухали обидві сторони; спостерігачі кажуть, що справу зробили неминучою завдяки власним документам уряду. «Нічого в чинному законодавчому акті не підтримує орвеллівську ідею про те, що американську компанію можуть таврувати як потенційного супротивника й саботажника США за висловлення незгоди з урядом», — написала суддя Лін.

 Внутрішній протокол виявився фатальним для позиції уряду, заявив Ендрю Россоу, адвокат із паблік-афеєрз і CEO AR Media Consulting, який розповів Decrypt, що це позначення було «спровоковане діями в медіапросторі, а не аналізом безпеки». «Уряд по суті записав власний мотив, і це була помста», — сказав Россоу. Спір стосується дворічного контракту на 200 мільйонів доларів, який у липні 2025 року Міністерство оборони (Department of War) через Офіс головного цифрового та штучного інтелекту (Chief Digital and Artificial Intelligence Office) уклало з Anthropic.

Переговори щодо розгортання Claude на платформі GenAI.Mil відомства зірвалися після того, як дві сторони не змогли узгодити обмеження щодо використання. Anthropic висунула дві умови: щоб Claude не застосовували для масового стеження за американцями або для смертельного використання в автономній війні, аргументуючи, що модель ще не є безпечною для жодної з цих цілей. На зустрічі 24 лютого міністр оборони Піт Гегсет (Pete Hegseth) сказав представникам Anthropic, що якщо компанія не скасує свої обмеження до 27 лютого, відомство негайно позначить її як ризик для ланцюгів постачання. Anthropic відмовилася виконати вимогу. У той самий день президент Трамп опублікував на Truth Social директиву, якою наказав кожному федеральному агентству «негайно припинити» використовувати технологію компанії, назвавши Anthropic «радикально лівою, пробудженою компанією». Трохи більше ніж за годину потому Гегсет охарактеризував позицію Anthropic як «майстер-клас з пихи та зради», наказавши, щоб жоден підрядник, який веде бізнес із військовими, не міг здійснювати комерційну діяльність із цією фірмою. Формальне позначення ризику для ланцюгів постачання було оформлено листом від 3 березня. Anthropic подала до суду на уряд 9 березня, стверджуючи порушення Першої поправки, належної правової процедури та Закону про адміністративні процедури (Administrative Procedure Act). «Покарання Anthropic за те, що вона привернула суспільну увагу до позиції уряду в контрактах, — це класична незаконна помста за Першу поправку», — написала суддя Лін у наказі, оприлюдненому в четвер.

Наказ, який було призупинено на сім днів, блокує всі три дії уряду, вимагає звіт про дотримання до 6 квітня та відновлює status quo до подій від 27 лютого. Застосування закону як зброї Позначення як «ризик для ланцюгів постачання» історично було зарезервоване для іноземних розвідувальних служб, терористів та інших ворожих суб’єктів.  Раніше його ніколи не застосовували до вітчизняної компанії до Anthropic. За словами в наказі судді Лін, оборонні підрядники почали оцінювати можливість і в багатьох випадках припиняти свою залежність від Anthropic у тижнях, що послідували за цим. І, як стверджують експерти, поза-ігра уряду може мати непередбачувані наслідки. Зокрема, рішення в четвер може підштовхнути компанії зі сфері AI «формалізувати етичні запобіжники під час роботи з урядом», — сказала Пічапен Пратапаваніч, стратег з політики та засновниця інфраструктурної компанії Gather Beyond, в інтерв’ю Decrypt. Певною мірою, це рішення також означає, що компанії «можуть встановлювати чіткі обмеження щодо використання, не запускаючи автоматично каральні регуляторні дії», — додала вона. Але це «не знімає напруги», — сказала вона. Обмежується «можливість ескалувати цю незгоду до ширшого виключення або маркування, яке виглядає як помста». Втім, застосування чинних законодавчих повноважень для позначення компанії як ризику для ланцюгів постачання «через те, що вона відмовилася прибрати запобіжники з безпеки», не є розширенням статуту про ризики для ланцюгів постачання, — пояснив Россоу. Натомість це діє як «“зброєне” застосування закону».

«Це частина триваючого патерну поведінки Білого дому щоразу, коли його оскаржують: він призводить до непропорційних, емоційно керованих і упереджених погроз та урядового шантажу (extortion)», — додав він. Якщо прийняти «теорію» уряду, це створило б «небезпечний прецедент», за яким компанії зі сфері AI можуть бути внесені в чорний список за політики щодо безпеки, які уряд не схвалює, «ще до того, як станеться якась шкода», без належної правової процедури, — сказав Россоу, — під гаслом національної безпеки.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів