Американський суддя ставить під сумнів придушення Пентагоном Anthropic, питання свободи штучного інтелекту привертає увагу

GateNews

Новини Gate: суддя федерального суду Сан-Франциско, Ріта Лін, ухвалила, що дії Пентагону щодо компанії Anthropic можуть порушувати першу поправку до Конституції та є актом репресій проти свободи слова. Раніше компанія відкрито засудила дії «Міністерства війни», що викликало різку реакцію уряду. Це позов було передано до суду Каліфорнії, де Anthropic вимагає скасувати їхній ярлик «ризик ланцюга постачання», який раніше призвів до заборони використання їхньої штучної інтелектуальної моделі Claude.

Суддя зазначила, що заходи уряду здаються більше покаранням для Anthropic, ніж необхідністю для національної безпеки. Представник Anthropic Майкл Мунган заявив, що така практика раніше не застосовувалася, її обмежений обсяг не підходить для повної заборони AI-технологій. Суддя підкреслила, що головне у справі — чи є дії уряду незаконними, а не обґрунтованість припинення використання AI.

Раніше Anthropic співпрацювала з кількома федеральними агентствами та підписала контракт на 200 мільйонів доларів із Пентагоном, що дозволяє запускати системи у секретних мережах. Однак переговори за участю Claude у платформі GenAI.mil зайшли в глухий кут. Пентагон прагне отримати повний доступ для військових цілей, тоді як Anthropic чітко виступає проти використання своїх технологій у військових цілях і вимагає більш жорстких обмежень. Юрист уряду Гамільтон зазначив, що компанія не відмовляється від контракту, а ставить під сумнів легальність військового застосування.

Нещодавно система Claude була оновлена, тепер вона може автоматично керувати комп’ютером користувача для виконання завдань, таких як демонстрація презентацій або надсилання запрошень на зустрічі з додатками. Це робить її конкурентом у сфері AI-агентів, які працюють без постійного введення команд. Популярність OpenClaw прискорила цю тенденцію: Anthropic і моделі OpenAI можна отримати через WhatsApp або Telegram, отримуючи завдання та доступ до локальних файлів для ефективної автоматизації.

Це рішення стосується не лише військового застосування AI та виконання контрактів, а й викликає занепокоєння щодо можливого зловживання владою урядом США у сфері цифрових інновацій. Випадок Anthropic підкреслює складний баланс між розвитком штучного інтелекту, свободою слова та технологічною автономією, а його наслідки можуть поширитися на більше інноваційних компаній і глобальну екосистему AI.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів