4 月 9 日, Tòa án Phúc thẩm Liên bang của Hoa Kỳ tại Khu DC Washington đã ra phán quyết giữ nguyên quyết định của Bộ Quốc phòng gắn nhãn “rủi ro chuỗi cung ứng” đối với Anthropic, bác yêu cầu xin tạm hoãn của công ty này; cuộc chiến pháp lý xoay quanh ranh giới đạo đức của AI và cách định nghĩa an ninh quốc gia vẫn chưa ngã ngũ.
(Tóm tắt trước: Thẩm phán ủng hộ Anthropic, cấm Bộ Quốc phòng trừng phạt Claude bằng “nhãn rủi ro chuỗi cung ứng”)
(Thông tin bổ sung: Claude là gì? Phí, tính năng, Claude Code, Cowork phân tích đầy đủ — Hướng dẫn chi tiết nhất của Anthropic năm 2026 )
Mục lục bài viết
Toggle
Ngày 9 tháng 4, Tòa án Phúc thẩm Liên bang tại Washington, DC đã bác yêu cầu xin tạm hoãn thi hành của tập đoàn AI khổng lồ Anthropic, quyết định giữ nguyên việc Bộ Quốc phòng đưa công ty này vào danh sách “rủi ro chuỗi cung ứng”.
Lý do của tòa án nêu thẳng: lợi ích an ninh quốc gia của chính phủ trong việc quản lý chuỗi cung ứng AI được đặt lên trước tổn thất tài chính mà Anthropic phải gánh chịu. Nhãn này trong quá khứ thường được dùng cho doanh nghiệp của các quốc gia thù địch hoặc các thực thể tiềm ẩn mối đe dọa; nay nó lại rơi vào một “kỳ lân” AI nội địa của Hoa Kỳ, hàm ý biểu tượng là điều không cần nói.
200Một hợp đồng trị giá 200 triệu USD, đi đến đổ vỡ như thế nào
Sự việc bắt nguồn từ tháng 7 năm 2025. Anthropic và Lầu Năm Góc đã ký một hợp đồng trị giá 200 triệu USD, tích hợp các mô hình AI của mình là Claude vào hệ thống Maven thông minh, hỗ trợ thực hiện các nhiệm vụ phân tích tình báo và nhận diện mục tiêu.
Tuy nhiên, đến tháng 9 năm 2025, hai bên đã đàm phán đổ vỡ. Anthropic kiên trì thiết lập hai “vạch đỏ” về đạo đức: từ chối sử dụng Claude trong các hệ thống vũ khí tự động hoàn toàn, và từ chối sử dụng trong giám sát nội địa. Hai lập trường này xung đột căn bản với kỳ vọng của chính quyền Trump; sau đó Trump đã ra lệnh thông qua mạng xã hội yêu cầu các cơ quan liên bang ngừng sử dụng sản phẩm của Anthropic và đặt ra thời gian loại bỏ 6 tháng.
Từ cuối năm 2025 đến đầu năm 2026, Bộ Quốc phòng chính thức đưa Anthropic vào danh sách rủi ro chuỗi cung ứng. Việc gắn nhãn này trực tiếp cắt đứt tư cách của Anthropic tham gia các hợp đồng quốc phòng của chính phủ.
Hiện tại, cuộc chiến pháp lý này tồn tại các phán quyết mâu thuẫn nhau. Tòa án Liên bang ở San Francisco vào cuối tháng 3 trước đó đã phê chuẩn một lệnh cấm tạm thời, cho phép Anthropic tiếp tục hợp tác với các cơ quan chính phủ không thuộc quốc phòng; nhưng phán quyết của Tòa án Phúc thẩm Liên bang tại Washington, DC vào ngày 9 tháng 4 đã củng cố lập trường phong tỏa của Bộ Quốc phòng, từ chối cho bất kỳ khoảng trống nào về việc tạm hoãn.
Điều này có nghĩa là Anthropic hiện đang rơi vào một “khe hở” pháp lý khó xử: có thể hợp tác với một số đơn vị chính phủ, nhưng lại bị loại khỏi các hợp đồng quốc phòng. Anthropic cho biết cho rằng vụ việc này là sự trả đũa mang tính chính trị, đồng thời vi phạm các quyền được hiến pháp bảo đảm, và họ sẽ tiếp tục kháng cáo. Thủ tục xét xử được đẩy nhanh sẽ là chìa khóa của giai đoạn tiếp theo.
Tuy nhiên, theo báo cáo của Electronic Engineering Album, mặc dù Anthropic phải chịu cú sốc lớn về mặt kinh doanh, không thể tham gia các hợp đồng quốc phòng quy mô khổng lồ, nhưng hình ảnh kiên định với lập trường đạo đức lại nhận được phản hồi tích cực hơn trên thị trường người dùng phổ thông, thu hút thêm các doanh nghiệp và cá nhân có mối quan tâm đến an toàn AI.
Tác động của phán quyết này không chỉ dừng lại ở một mình Anthropic. Nó phơi bày một mâu thuẫn mang tính cấu trúc sâu hơn: khi các khung đạo đức của nhà phát triển AI xung đột với cách chính phủ định nghĩa an ninh quốc gia, cán cân của hệ thống pháp luật hiện hành đang nghiêng về đâu—đã có một câu trả lời ban đầu. Phán quyết cuối cùng của vụ án sẽ mang ý nghĩa tham chiếu sâu sắc đối với việc toàn bộ ngành công nghệ sẽ đàm phán với chính phủ như thế nào về ranh giới sử dụng AI.
![]###https://img-cdn.gateio.im/social/moments-6f611c31c0-b4b687b5eb-8b7abd-badf29(