Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Федеральний суддя ретельно розглядає дії Пентагону проти компанії штучного інтелекту Anthropic
(MENAFN) Федеральний суддя в Сполучених Штатах у вівторок поставив під сумнів рішення Пентагону класифікувати компанію з штучного інтелекту Anthropic як “ризик для ланцюга постачання”, висловивши сумніви щодо того, чи дійсно цей крок був виправданий з точки зору національної безпеки.
Під час слухання в Сан-Франциско суддя окружного суду США Ріта Лін охарактеризувала дії уряду як “тривожні” і вказала на те, що вони можуть перевищувати межі законних занепокоєнь щодо безпеки.
Суперечка виникла після того, як Anthropic відмовилася дозволити використання своєї системи штучного інтелекту Claude для масового спостереження за американськими громадянами або в програмах повністю автономної зброї. Уряд США стверджував, що він повинен зберегти можливість використовувати такі технології для “всіх законних цілей”. Після невдалих переговорів Пентагон обмежив участь компанії у проектах, пов’язаних з військовими справами.
У відповідь Anthropic подала позов, стверджуючи, що ця класифікація є неконституційною та є помстою за позицію компанії щодо безпеки штучного інтелекту. Вона намагається заблокувати як цю класифікацію, так і ширше розпорядження, яке інструктує федеральні агенції припинити використання її технології.
На слуханні адвокат Міністерства юстиції зазначив, що Міністерство оборони не має явної юридичної влади для припинення контрактів виключно на основі окремих відносин інших компаній з Anthropic.
MENAFN25032026000045017640ID1110905141