Persimpangan Jalan 2025: Pemikiran Tahunan Seorang Peneliti AI (Bagian Pertama)

Sumber Artikel: Xinzhiyuan | Editor: Taozi

Pilihan Jelas di Balik Perubahan Karir

Ketika seorang peneliti menghadapi perubahan tak terduga di saat-saat penting dalam karirnya, apa yang akan dia pelajari?

Perubahan karir ini di awal tahun 2025 memberi Tian Yuandong kesempatan untuk meninjau pilihannya dengan kerangka pengambilan keputusan klasik. Ketika dia diundang untuk terlibat dalam proyek besar “Darurat”, ilmuwan AI yang telah lama meneliti pembelajaran penguatan ini membuat sebuah matriks 2x2 yang mencantumkan empat kemungkinan hasil. Tetapi kenyataan memberinya hasil kelima—sesuatu yang di luar ekspektasi.

Kejadian tak terduga ini memberinya pemahaman yang lebih dalam tentang kompleksitas sosial. Namun, selama beberapa bulan bekerja, timnya memang berhasil melakukan terobosan pada inti masalah pembelajaran penguatan: stabilitas pelatihan, interaksi antara pelatihan dan inferensi, desain arsitektur model, penggabungan pra-pelatihan dan pelatihan tengah, algoritma inferensi rantai panjang, metode pembuatan data, desain kerangka pasca-pelatihan, dan lain-lain. Prestasi ini membawa perubahan paradigma penting dalam arah penelitian selanjutnya.

Tian Yuandong mengakui bahwa keputusannya untuk meninggalkan perusahaan besar sebenarnya sudah dipertimbangkan selama bertahun-tahun. Dalam lebih dari satu dekade karirnya, dia beberapa kali berpikir untuk berhenti—bahkan di akhir 2023 hampir melakukannya—namun faktor ekonomi dan keluarga membuatnya berubah pikiran berulang kali. Dalam beberapa tahun terakhir, dia bercanda bahwa tindakannya seperti memberi isyarat kepada perusahaan agar membiarkannya keluar. Kali ini, dia akhirnya “dibantu” untuk membuat keputusan.

Yang menarik, jalur hidupnya yang berliku ini malah menjadi sumber inspirasi bagi kreativitasnya. Seperti pepatah kuno: “Jika jalan resmi tidak terbuka, penyair akan mendapatkan manfaatnya; semakin kaya pengalaman hidup, semakin dalam puisi yang dihasilkan.” Hidup yang terlalu mulus justru kurang menantang secara intrinsik.

Dia juga ingat awal 2021, karena menulis beberapa baris refleksi tentang “mengapa makalah tidak diterima” dalam rangkuman tahunan, dia menerima umpan balik yang kurang bersahabat. Tapi dia memilih untuk diam, bahkan berpura-pura baru saja mendapatkan promosi di depan banyak orang. Enam bulan kemudian, terbukti bahwa strategi itu berhasil: dia benar-benar mendapatkan promosi. Dan makalah yang awalnya tidak diperhatikan pada awal 2021, pada Juli mendapatkan Penghargaan Makalah Terbaik di ICML, menjadi karya klasik di bidang pembelajaran representasi.

Setelah 22 Oktober, semua saluran komunikasi dia sempat lumpuh—ratusan pesan, email, dan undangan rapat datang setiap hari. Butuh beberapa minggu untuk kembali ke kehidupan normal. Terima kasih kepada semua yang peduli selama masa itu, meskipun dia mengakui mungkin ada pesan yang tidak sempat dibalas tepat waktu.

Akhirnya, dari berbagai tawaran dari perusahaan teknologi top, dia memilih bergabung sebagai salah satu pendiri sebuah proyek startup baru. Detailnya masih dirahasiakan, dia lebih memilih fokus bekerja daripada mengumumkan terlalu dini.

Peta Penelitian 2025: Tiga Garis Utama

Tian Yuandong merancang jalur penelitian yang sangat jelas: Efisiensi inferensi model besar dan Keterjelasan model.

Ekstensi Inferensi Ruang Potensial Berurutan

Karya inferensi ruang potensial berurutan yang dirilis akhir 2024 (coconut, COLM’25) memicu resonansi luas di tahun 2025. Komunitas penelitian mulai mengeksplorasi: bagaimana menerapkan ide ini dalam pembelajaran penguatan dan pra-pelatihan? Bagaimana mengoptimalkan efisiensi pelatihan dan biaya komputasi?

Meskipun timnya kemudian dialihkan ke proyek lain dan tidak dapat memperluas jalur ini secara mendalam, arah ini sendiri sudah membuktikan nilainya. Pada semester pertama, mereka menerbitkan sebuah artikel analisis teoretis berjudul 《Reasoning by Superposition》(NeurIPS’25), yang secara matematis menjelaskan keunggulan inferensi ruang potensial berurutan dibandingkan metode tradisional, dan mendapatkan perhatian cukup besar.

Terobosan Multi-Dimensi dalam Efisiensi Inferensi

Mengurangi biaya inferensi model besar adalah sebuah proyek sistemik, dan tim Tian Yuandong mendorong dari berbagai dimensi:

Optimisasi di tingkat Token: Token Assorted (ICLR’25) belajar token diskret di ruang potensial (dengan VQVAE), lalu dalam pelatihan lanjutan menggabungkan token diskret ini dengan token teks, sehingga secara signifikan mengurangi biaya inferensi sekaligus meningkatkan performa.

Penghentian Inferensi Berbasis Kepercayaan Diri: DeepConf mendeteksi tingkat kepercayaan setiap token yang dihasilkan, secara dinamis memutuskan apakah jalur inferensi bisa dihentikan lebih awal, mengurangi jumlah token yang dikonsumsi secara signifikan. Dalam banyak skenario voting, performanya bahkan lebih baik.

Percepatan Pelatihan Rantai Inferensi Paralel: ThreadWeaver menciptakan rantai inferensi paralel, dan melalui pelatihan lanjutan melakukan optimisasi kolaboratif terhadap rantai-rantai ini, mempercepat proses inferensi secara keseluruhan.

Selain itu, tim juga mengeksplorasi kemampuan inferensi yang didorong oleh pembelajaran penguatan pada model kecil (Sandwiched Policy Gradient), bahkan dalam model ringan seperti MobileLLM-R1 yang mampu melakukan inferensi kompleks.

Keterjelasan: Dari “Mengapa Efektif” ke “Mengapa Pasti Efektif”

Ketertarikan Tian Yuandong terhadap fenomena Grokking (tiba-tiba wawasan) berakar dari kebingungannya dua tahun lalu: saat menganalisis representasi belajar, dia mampu mendeskripsikan dinamika belajar dan mekanisme kolaps, tetapi tidak mampu menjawab pertanyaan mendasar—apa sebenarnya yang dipelajari model? Bagaimana hubungan representasi ini dengan struktur data? Seberapa baik generalisasi yang bisa dicapai?

Fenomena Grokking—perpindahan mendadak dari memori ke generalisasi—seperti sebuah jendela untuk masuk ke dalam misteri ini. Eksplorasi awal memang penuh tantangan. Karya 2024 《COGS》(NeurIPS’25) hanya mampu menganalisis kasus khusus, dan ini membuatnya kurang memuaskan. Setelah lebih dari setahun berpikir dan berdiskusi berulang dengan GPT, karya terbarunya 《Provable Scaling Laws》 menandai terobosan besar: mampu menganalisis fenomena yang tidak bisa dijangkau oleh kerangka NTK linier, dan cukup baik menjelaskan dinamika pelatihan di balik munculnya fitur. Meski contoh-contohnya masih bersifat khusus, setidaknya membuka jendela baru.

Karya akhir tahun 《The path not taken》 adalah yang paling dia banggakan—memberikan jawaban awal di tingkat bobot, menjelaskan mengapa perilaku pembelajaran penguatan dan fine-tuning terawasi (SFT) sangat berbeda.

SFT menyebabkan overfitting dan lupa yang katastrofik, karena alasan permukaan adalah data pelatihan yang kurang sifat on-policy, tetapi alasan mendalamnya adalah data eksternal menyebabkan komponen bobot utama berubah secara drastis, merusak stabilitas “fondasi”. Sedangkan pembelajaran penguatan menggunakan data on-policy, menjaga komponen utama tetap, hanya mengubah komponen sekunder, sehingga menghindari lupa yang katastrofik—dan bobot yang berubah ini lebih tersebar (terutama di bawah kuantisasi bf16).

Mengapa Keterjelasan Layak Dipercaya

Banyak orang menganggap keterjelasan—yaitu pertanyaan “mengapa AI begitu efektif”—tidak cukup penting. Tapi bagi Tian Yuandong, ini adalah inti dari masa depan.

Pertimbangkan dua skenario masa depan:

Skenario satu: Jika hanya melalui Scaling saja sudah mampu mencapai AGI bahkan ASI, maka nilai kerja manusia akan mendekati nol. Pada saat itu, AI sebagai kotak hitam besar menyelesaikan semua masalah. Maka pertanyaan paling mendesak adalah: Bagaimana memastikan superintelligence ini selalu berbuat baik, tidak secara tersembunyi menipu atau berbuat jahat? Jawabannya tidak lepas dari studi keterjelasan.

Skenario dua: Jika jalan Scaling akhirnya menemui batas, dan manusia tidak mampu memenuhi kebutuhan sumber daya secara eksponensial, kita harus mencari jalan lain. Pada titik ini, memahami “mengapa model efektif, apa yang membuatnya gagal” menjadi keharusan. Dan studi keterjelasan adalah fondasi jalan alternatif ini.

Dalam kedua skenario, keterjelasan adalah kunci penyelesaian masalah. Bahkan jika AI adalah makhluk maha tahu dan baik, sifat manusia akan mendorong kita untuk menyelidiki mengapa ia bisa melakukan ini. Bagaimanapun, “kotak hitam” sendiri akan menimbulkan rantai keraguan.

Di era di mana teknologi model besar sudah mencapai bahkan melampaui rata-rata manusia, hukum “hutan gelap” dari 《Tiga Tubuh》 mungkin muncul dalam bentuk lain. Saat ini, membuka kotak hitam model terlatih dan menemukan jalur internalnya masih merupakan tugas awal.

Kesulitan utama studi keterjelasan adalah: Dari prinsip pertama—yaitu dari arsitektur model, gradien descent, dan struktur data yang mendasarinya—menjelaskan mengapa model konvergen ke solusi yang terdekat, jarang, low-rank, modular, dan fitur yang dapat dikombinasikan. Mengapa ada begitu banyak interpretasi yang setara? Parameter hiper apa yang memicu munculnya struktur ini? Bagaimana hubungan antar struktur tersebut?

Ketika kita mampu secara langsung menurunkan dari persamaan gradien descent tentang keniscayaan munculnya fitur dalam model besar, keterjelasan akan meningkat dari sekadar “pengumpulan bukti” secara biologis menjadi “deduksi prinsip” secara fisik, dan akan membimbing praktik serta membuka jalur desain AI generasi berikutnya.

Menggunakan analogi fisika empat abad lalu: saat itu kita punya banyak data dari Tycho Brahe (pengumpul data di bidang AI), beberapa Kepler (pengusul hipotesis), tetapi belum ada Newton (penemu prinsip). Ketika saat itu tiba, wajah dunia akan berubah total.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)