Федеральний суддя ретельно розглядає дії Пентагону проти компанії штучного інтелекту Anthropic

robot
Генерація анотацій у процесі

(MENAFN) Федеральний суддя в Сполучених Штатах у вівторок поставив під сумнів рішення Пентагону класифікувати компанію з штучного інтелекту Anthropic як “ризик для ланцюга постачання”, висловивши сумніви щодо того, чи дійсно цей крок був виправданий з точки зору національної безпеки.

Під час слухання в Сан-Франциско суддя окружного суду США Ріта Лін охарактеризувала дії уряду як “тривожні” і вказала на те, що вони можуть перевищувати межі законних занепокоєнь щодо безпеки.

Суперечка виникла після того, як Anthropic відмовилася дозволити використання своєї системи штучного інтелекту Claude для масового спостереження за американськими громадянами або в програмах повністю автономної зброї. Уряд США стверджував, що він повинен зберегти можливість використовувати такі технології для “всіх законних цілей”. Після невдалих переговорів Пентагон обмежив участь компанії у проектах, пов’язаних з військовими справами.

У відповідь Anthropic подала позов, стверджуючи, що ця класифікація є неконституційною та є помстою за позицію компанії щодо безпеки штучного інтелекту. Вона намагається заблокувати як цю класифікацію, так і ширше розпорядження, яке інструктує федеральні агенції припинити використання її технології.

На слуханні адвокат Міністерства юстиції зазначив, що Міністерство оборони не має явної юридичної влади для припинення контрактів виключно на основі окремих відносин інших компаній з Anthropic.

MENAFN25032026000045017640ID1110905141

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити