9 April, pengadilan banding federal di Washington, D.C., Amerika Serikat memutuskan untuk mempertahankan label “risiko rantai pasokan” dari Departemen Pertahanan terhadap Anthropic, menolak permohonan penangguhan sementara mereka, dan perang hukum yang masih berlangsung ini belum mencapai akhir—pertempuran yang berkaitan dengan garis batas etika AI dan definisi keamanan nasional.
(Catatan latar belakang: hakim mendukung Anthropic, melarang Departemen Pertahanan menghukum Claude dengan label “risiko rantai pasokan”)
(Tambahan konteks: Claude itu apa? Analisis lengkap tentang biaya, fitur, Claude Code, Cowork — Panduan Anthropic paling detail tahun 2026)
Daftar Isi
Toggle
9 April, pengadilan banding federal di Washington, D.C., Amerika Serikat menolak permohonan penangguhan pelaksanaan dari raksasa AI Anthropic, dan memutuskan untuk mempertahankan keputusan Departemen Pertahanan yang menetapkannya sebagai “risiko rantai pasokan”.
Alasan pengadilan secara langsung: kepentingan keamanan nasional pemerintah dalam mengelola rantai pasokan AI lebih diutamakan daripada kerugian finansial yang ditanggung Anthropic. Label ini, yang biasanya digunakan untuk perusahaan dari negara yang menjadi musuh atau entitas yang berpotensi menjadi ancaman, kini jatuh pada sebuah unicorn AI berbasis di Amerika Serikat; makna simbolisnya tidak terbantahkan.
Peristiwa ini berawal pada Juli 2025. Anthropic dan Pentagon menandatangani kontrak senilai 200 juta dolar yang mengintegrasikan model AI milik Anthropic, Claude, ke dalam sistem Maven, untuk membantu menjalankan tugas analisis intelijen dan identifikasi target.
Namun, negosiasi kedua pihak kandas pada September 2025. Anthropic bersikeras menetapkan dua garis batas etika: menolak menggunakan Claude untuk sistem senjata yang sepenuhnya otomatis, dan menolak menggunakannya untuk pengawasan domestik. Dua posisi ini bertabrakan secara mendasar dengan ekspektasi pemerintahan Trump; kemudian Trump memerintahkan lembaga federal untuk menghentikan penggunaan produk Anthropic melalui media sosial, serta menetapkan masa transisi enam bulan untuk penghentian.
Dari akhir 2025 hingga awal 2026, Departemen Pertahanan secara resmi memasukkan Anthropic ke dalam daftar risiko rantai pasokan. Label ini langsung memutus kelayakan Anthropic untuk berpartisipasi dalam kontrak pertahanan pemerintah.
Saat ini, perang hukum ini memiliki hasil putusan yang saling bertentangan. Pengadilan federal di San Francisco pada akhir Maret sempat menyetujui perintah larangan sementara yang memungkinkan Anthropic terus bekerja sama dengan lembaga pemerintah non-pertahanan; tetapi putusan 9 April dari pengadilan banding federal di Washington, D.C., justru memperkuat sikap pelarangan dari Departemen Pertahanan, menolak memberi ruang apa pun untuk penangguhan.
Ini berarti Anthropic saat ini berada dalam situasi hukum yang canggung: ia dapat bekerja sama dengan sebagian unit pemerintah, tetapi ditolak dari kontrak pertahanan. Anthropic menyatakan bahwa kasus ini merupakan pembalasan politik dan melanggar jaminan konstitusional; mereka akan terus mengajukan banding. Mempercepat proses persidangan akan menjadi kunci pada tahap berikutnya.
Namun, menurut laporan dari Electronic Engineering Times, meskipun Anthropic mengalami pukulan besar secara komersial sehingga tidak dapat ikut dalam kontrak pertahanan berskala besar, citra karena tetap berpegang pada pendirian etisnya justru mendapat respons positif di pasar pengguna umum, menarik lebih banyak perusahaan dan pengguna individu yang memiliki kekhawatiran terhadap keamanan AI.
Dampak dari putusan ini tidak berhenti pada satu perusahaan saja, yaitu Anthropic. Ia mengungkap kontradiksi struktural yang lebih dalam: ketika kerangka etika pengembang AI bertabrakan dengan definisi pemerintah tentang keamanan nasional, ke mana kecenderungan timbangan sistem hukum yang berlaku saat ini berpihak—sudah ada jawaban awal. Putusan akhir dalam kasus ini akan memberikan makna acuan yang mendalam bagi bagaimana seluruh industri teknologi akan bernegosiasi dengan pemerintah mengenai batas penggunaan AI.