Dua ratus miliar dolar AS: OpenAI dan Nvidia berperang dalam "perang inferensi"

NVIDIA dan OpenAI masing-masing menginvestasikan 20 miliar dolar AS untuk menguasai pasar chip AI inferensi, Cerebras mengajukan permohonan IPO dengan valuasi 35 miliar dolar AS. Perang tanpa suara ini, yang memperebutkan kendali masa depan daya komputasi AI, sedang merombak pola pasar teknologi bernilai ratusan miliar dolar. Artikel ini berasal dari Wall Street Journal, disusun dan dilaporkan oleh PANews.
(Latar belakang: Laporan keuangan NVIDIA menunjukkan pertumbuhan pendapatan 114% melebihi ekspektasi, mengapa Jensen Huang tidak takut terhadap dampak DeepSeek?)
(Tambahan latar belakang: The Economist menyebut: Tahun 2025 adalah era “AI Agent”, tetapi perlu memperhatikan tiga tantangan)

Daftar Isi Artikel

Toggle

  • Apa itu inferensi, mengapa kata kunci tahun 2026 bukan lagi “pelatihan”
  • Masalah NVIDIA: chip yang dirancang untuk pelatihan, secara alami tidak cocok untuk inferensi
  • 20 miliar dolar NVIDIA: surat pengakuan di balik akuisisi terbesar dalam sejarah
  • 20 miliar dolar OpenAI: membeli chip hanyalah permukaan, kepemilikan saham adalah kunci
  • Cerebras hari ini IPO, apa yang sebenarnya Anda beli

Pada Desember 2025, NVIDIA diam-diam menghabiskan 20 miliar dolar AS untuk membeli perusahaan chip AI bernama Groq.

Pada 17 April 2026, OpenAI mengumumkan akan membeli chip dari perusahaan chip AI lain, Cerebras, dengan nilai lebih dari 20 miliar dolar AS. Pada hari yang sama, Cerebras secara resmi mengajukan dokumen IPO ke NASDAQ, dengan target valuasi 35 miliar dolar AS.

Dua transaksi ini, jumlahnya hampir sama persis. Satu adalah akuisisi, satu lagi pembelian. Satu berasal dari penjual chip AI terbesar di dunia, satu lagi dari pembeli terbesar di dunia.

Ini bukan dua kejadian yang terpisah, melainkan dua langkah simetris dalam satu perang. Nama medan pertempurannya: inferensi AI.

Kebanyakan orang tidak menyadari perang ini. Karena tidak ada ledakan, hanya pengumuman keuangan dan diskusi teknis yang beredar di kalangan insinyur Silicon Valley. Tapi pengaruhnya mungkin lebih dalam dari setiap peluncuran AI dalam dua tahun terakhir—karena ini sedang meredistribusi kendali atas pasar teknologi terbesar dalam sejarah yang hampir pasti akan terbentuk.

Apa itu inferensi, mengapa kata kunci tahun 2026 bukan lagi “pelatihan”

Sebelum membahas dua transaksi 20 miliar dolar ini, perlu memahami satu latar belakang: medan perang chip AI sedang mengalami pergeseran fokus.

Pelatihan dan inferensi adalah dua tahap konsumsi daya komputasi AI. Pelatihan adalah proses membangun model—memberi data dalam jumlah besar ke jaringan neural agar mampu belajar suatu kemampuan. Proses ini biasanya hanya dilakukan sekali, atau diperbarui secara berkala. Inferensi adalah menggunakan model—setiap kali pengguna mengajukan pertanyaan, ChatGPT memberikan jawaban, yang sebenarnya adalah permintaan inferensi.

Pada 2023, sebagian besar pengeluaran daya komputasi AI global difokuskan pada pelatihan, sementara inferensi berperan sebagai pendukung.

Namun, proporsi ini sedang dengan cepat berbalik.

Menurut data riset pasar dari Deloitte dan CES 2026, pada 2025, inferensi sudah menyumbang 50% dari seluruh pengeluaran daya komputasi AI; pada 2026, proporsi ini akan melonjak menjadi dua pertiga. CEO Lenovo Yang Yuanqing mengatakan secara lebih lugas di CES: struktur pengeluaran AI akan berbalik dari “80% pelatihan + 20% inferensi” menjadi “20% pelatihan + 80% inferensi”.

Logikanya tidak rumit. Pelatihan adalah biaya sekali pakai, inferensi adalah biaya berkelanjutan. GPT-4 dilatih sekali, tetapi setiap hari harus menjawab miliaran pertanyaan pengguna, setiap percakapan adalah permintaan inferensi. Setelah deployment secara massal, konsumsi inferensi jauh melebihi pelatihan.

Apa artinya ini? Artinya, bagian paling menguntungkan dari industri AI sedang beralih dari “chip pelatihan” ke “chip inferensi”. Dan kedua jenis chip ini membutuhkan arsitektur yang sama sekali berbeda.

Masalah NVIDIA: chip yang dirancang untuk pelatihan, secara alami tidak cocok untuk inferensi

NVIDIA H100 dan H200 adalah monster yang dirancang untuk pelatihan. Keunggulan utamanya adalah throughput komputasi yang sangat tinggi—pelatihan membutuhkan banyak operasi perkalian matriks besar, GPU sangat mahir dalam “parallel computing multi-core”.

Namun, bottleneck inferensi bukanlah perhitungan, melainkan bandwidth memori.

Ketika pengguna mengajukan pertanyaan, chip harus memindahkan bobot model dari memori ke unit komputasi, baru kemudian menghasilkan jawaban. Proses “pindah” ini adalah sumber utama delay inferensi. GPU NVIDIA menggunakan memori berkecepatan tinggi eksternal (HBM), dan proses pemindahan ini secara tak terhindarkan menimbulkan latensi—bagi ChatGPT yang harus memproses ribuan permintaan per detik, latensi ini, ketika dikalikan skala, menjadi hambatan nyata terhadap performa.

Insinyur internal OpenAI menyadari masalah ini saat mereka mengoptimalkan Codex (alat pembuat kode), dan menemukan bahwa kecepatan respons selalu terbatas oleh batasan arsitektur GPU NVIDIA.

Dengan kata lain, kelemahan NVIDIA di sisi inferensi bukan karena kurang usaha, melainkan karena arsitektur.

Cerebras mengambil pendekatan yang sama sekali berbeda. Chip WSE-3 ini sangat besar sehingga membutuhkan packaging tingkat wafer—luas 46.255 mm², lebih besar dari telapak tangan manusia—mengintegrasikan 900.000 inti AI dan 44GB SRAM super cepat dalam satu chip silikon. Memori langsung ditempelkan di samping inti komputasi, sehingga jarak “pindah” dari centimeter menjadi mikrometer. Hasilnya: kecepatan inferensi 15 sampai 20 kali lebih cepat dari NVIDIA H100.

Perlu ditambahkan: NVIDIA tidak diam saja. Arsitektur Blackwell (B200) terbaru mereka meningkatkan performa inferensi empat kali lipat dibanding H100, dan sedang dalam deployment massal. Tapi Blackwell mengejar target yang bergerak—Cerebras juga sedang melakukan iterasi, dan kompetitor yang muncul di pasar chip tidak hanya Cerebras.

20 miliar dolar NVIDIA: surat pengakuan di balik akuisisi terbesar dalam sejarah

Pada 24 Desember 2025, NVIDIA mengumumkan akuisisi terbesar dalam sejarahnya.

Targetnya adalah Groq.

Groq adalah pesaing langsung Cerebras, juga memproduksi chip SRAM yang dioptimalkan untuk inferensi—disebut LPU (Language Processing Unit), yang saat itu dinilai sebagai chip inferensi tercepat di dunia. NVIDIA menghabiskan 20 miliar dolar untuk membeli seluruh teknologi inti dan tim pendiri Groq, termasuk pendirinya Jonathan Ross dan beberapa insinyur chip top dari tim TPU Google.

Ini adalah akuisisi terbesar kedua setelah pembelian Mellanox seharga 7 miliar dolar pada 2019, dan tiga kali lipat dari angka itu.

Bagi banyak analis, pesan yang disampaikan di balik angka ini jauh lebih penting: NVIDIA percaya bahwa mereka memiliki kekurangan struktural di sisi inferensi, dan kekurangan ini besar sekali sehingga layak menghabiskan 20 miliar dolar untuk menutupnya.

Jika NVIDIA benar-benar yakin GPU mereka tak tertandingi di inferensi, mereka tidak perlu membeli Groq. Uang sebesar ini sebenarnya adalah surat pembelian teknologi senilai 20 miliar dolar—mengakui bahwa arsitektur SRAM embedded memiliki keunggulan nyata dalam skenario inferensi, dan bahwa NVIDIA tidak bisa menutup kekurangan ini dengan produk yang ada, sehingga membeli teknologi tersebut dengan harga tertinggi.

Tentu saja, narasi resmi setelah akuisisi adalah: “Integrasi mendalam dengan Groq, menyediakan solusi inferensi yang lebih lengkap.” Versi bahasa teknisnya: “Kami menyadari produk kami tidak cukup, jadi kami membeli milik orang lain.”

20 miliar dolar OpenAI: membeli chip hanyalah permukaan, kepemilikan saham adalah kunci

Sekarang kembali ke OpenAI.

Pada Januari 2026, OpenAI dan Cerebras menandatangani perjanjian pengadaan daya komputasi selama tiga tahun senilai 10 miliar dolar—yang dilaporkan media sebagai “OpenAI sedang mendiversifikasi pemasok chip”.

Namun, detail terbaru yang terungkap pada 17 April mengubah sifat dari kesepakatan ini secara mendasar:

Pertama, jumlah pengadaan dari 10 miliar menjadi 20 miliar dolar, meningkat dua kali lipat.

Kedua, OpenAI akan memperoleh waran saham dari Cerebras, dan seiring peningkatan skala pengadaan, proporsi saham yang dimiliki bisa mencapai 10% dari total saham Cerebras.

Ketiga, OpenAI juga akan menyediakan dana 1 miliar dolar untuk pembangunan pusat data Cerebras—dengan kata lain, OpenAI membantu Cerebras membangun pabrik.

Ketiga detail ini menggambarkan gambaran yang sama sekali berbeda: OpenAI tidak hanya membeli chip, tetapi juga membina pemasok.

Logika ini memiliki contoh yang jelas dalam sejarah teknologi. Pada 2006, Apple mulai bekerja sama dengan Samsung untuk memproduksi chip seri A yang dikustomisasi, awalnya juga melalui perjanjian pembelian massal. Tetapi seiring waktu, Apple semakin terlibat dan akhirnya mengembangkan chip seri M sendiri, sehingga kendali rantai pasok beralih dari Intel dan Samsung ke Apple sendiri. Apa yang dilakukan OpenAI mirip—namun ada batas penting: Apple sejak awal menguasai hak desain chip, sedangkan OpenAI saat ini masih sebagai pembeli, dan Cerebras setelah IPO akan berkembang secara independen dan melayani lebih banyak pelanggan. Jalan ini tidak selalu berujung pada OpenAI mengendalikan Cerebras sepenuhnya, melainkan membangun ekosistem yang saling bergantung.

Di satu sisi, dengan mengikat Cerebras melalui 20 miliar dolar dan kepemilikan saham, OpenAI memastikan pasokan daya inferensi dari non-NVIDIA tetap berkelanjutan; di sisi lain, OpenAI juga bekerja sama dengan Broadcom untuk mengembangkan chip ASIC sendiri, yang diperkirakan akan mulai produksi akhir 2026. Dua langkah ini berjalan bersamaan, menuju kemandirian daya komputasi.

Cerebras hari ini IPO, apa yang sebenarnya Anda beli

Pada 17 April, Cerebras resmi mengajukan permohonan IPO ke NASDAQ, dengan target valuasi 35 miliar dolar dan rencana mengumpulkan dana sebesar 3 miliar dolar.

Valuasi ini, yang sebelumnya pada September 2025 masih sekitar 8,1 miliar dolar, telah meningkat lebih dari empat kali lipat. Pada Februari tahun ini, perusahaan menyelesaikan putaran pendanaan baru dengan valuasi 23 miliar dolar, dan valuasi IPO 35 miliar ini menambah premium sebesar 52% di atas angka tersebut.

Bagi yang mengenal sejarah Cerebras, ini adalah kali kedua mereka mencoba go public. Pada 2024, karena pelanggan utama G42 (Dana Investasi Teknologi Berdaulat Uni Emirat Arab) menyumbang 83%–97% dari pendapatan tahun itu, CFIUS melakukan penyelidikan karena alasan keamanan nasional, dan IPO tersebut dibatalkan.

Kali ini, G42 sudah tidak lagi menjadi pemegang saham, digantikan oleh OpenAI.

Dengan kata lain, masalah struktur konsentrasi pelanggan Cerebras belum terselesaikan—nama pelanggan utama berganti, tetapi ketergantungan pada pelanggan besar tetap ada. Investor harus menilai: apakah pelanggan ini lebih baik atau lebih buruk? Dari sudut pandang kredit, OpenAI jelas lebih baik daripada G42; dari sudut strategi, OpenAI juga merupakan pesaing yang sedang membangun ekosistem sendiri—setelah chip ASIC mereka matang, mereka bisa menjadi ancaman nyata bagi Cerebras.

Secara adil, Cerebras juga berusaha memperluas basis pelanggan, dan dalam prospektus mereka akan mencantumkan lebih banyak sumber pendapatan yang beragam, sehingga tingkat konsentrasi akan berkurang. Tapi sebelum chip ASIC mereka mulai mass production, jawaban atas pertanyaan ini belum pasti.

Dengan membeli saham Cerebras, Anda sebenarnya juga bertaruh: OpenAI akan terus memilih Cerebras, dan chip ASIC mereka sendiri tidak akan datang lebih cepat. Kedua hal ini belum pasti.

Tentu saja, alasan bullish juga nyata: jika skala pasar inferensi tumbuh sesuai prediksi, bahkan jika Cerebras hanya mendapatkan bagian kecil dari pasar ini, angka absolutnya tetap sangat mengesankan. Masalahnya bukan apakah Cerebras punya peluang, tetapi apakah valuasi 35 miliar sudah mencerminkan skenario paling optimis.

Dua transaksi 20 miliar ini muncul secara simetris dari akhir 2025 hingga April 2026.

Satu dari penjual chip AI terbesar di dunia membeli teknologi dari pesaing di pasar inferensi.

Satu dari pembeli AI terbesar di dunia membangun perusahaan yang menantang NVIDIA di pasar inferensi.

Akuisisi NVIDIA sebesar 20 miliar adalah langkah defensif—menggunakan harga tertinggi untuk menutup kekurangan teknologi yang tidak bisa mereka penuhi sendiri.

Sementara itu, 20 miliar OpenAI adalah langkah ofensif—menghabiskan uang untuk membangun jalan tol inferensi yang tidak bergantung pada NVIDIA, sekaligus mendapatkan saham di salah satu stasiun tol tersebut.

Perang ini tidak menimbulkan suara tembakan, tetapi aliran dana tidak pernah berbohong. Dua transaksi ini memberi tahu kita dengan lebih jelas daripada peluncuran AI apa pun: kendali atas infrastruktur inferensi AI sedang diperebutkan. Dan pasar ini, pada 2026, akan menguasai dua pertiga dari seluruh pengeluaran daya komputasi industri.

IPO Cerebras adalah sinyal terompet dari perang ini.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan