Mantan Chief AI di Tesla, Andrej Karpathy—salah satu pendiri OpenAI—membagikan di X metodologi inti pribadi yang ia gunakan untuk model bahasa besar (LLM): nilai terbesar LLM bukan membantu Anda “menghemat penulisan”, melainkan membantu Anda “meningkatkan kemampuan membaca”. Ia mengusulkan sebuah proses membaca berlapis tiga, memposisikan LLM sebagai “penguat membaca” (reading amplifier). Pandangan ini menantang persepsi arus utama sebagian besar orang yang memandang AI sebagai akselerator penulisan.
Metode membaca tiga lapis: dari teks asli hingga analisis meta oleh LLM
Proses pemrosesan informasi yang dijelaskan Karpathy terbagi menjadi tiga lapis: lapisan pertama adalah membaca dokumen asli itu sendiri; lapisan kedua adalah meminta LLM menghasilkan ringkasan untuk cepat memahami gagasan-gagasan inti; lapisan ketiga—yang juga paling penting—adalah meminta LLM melakukan “analisis meta” (meta-analysis), untuk menilai mana pandangan dalam dokumen tersebut yang bagi sistem pengetahuan yang sudah dimiliki sendiri adalah “baru” atau “tak terduga”.
Keindahan dari metode ini terletak pada bahwa metode ini bukan menggantikan penilaian manusia dengan AI, melainkan mengoptimalkan penempatan “perhatian” manusia dengan bantuan AI. Ketika setiap hari perlu menyerap banyak informasi, penyaringan kebaruan di lapisan ketiga secara efektif membantu pembaca memusatkan fokus pada konten yang benar-benar layak dipelajari lebih dalam.
Mengapa “penguat membaca” lebih penting daripada “percepatan penulisan”
Kebanyakan orang menggunakan ChatGPT atau Claude terutama untuk menghasilkan teks—menulis surat, menulis laporan, menulis kode. Pandangan Karpathy justru sebaliknya: ia berpendapat bahwa nilai LLM di sisi input (membantu Anda menyerap informasi dengan lebih baik) jauh lebih besar daripada nilainya di sisi output (membantu Anda menghasilkan teks dengan lebih cepat).
Logikanya adalah: dalam pekerjaan berbasis pengetahuan, kualitas keputusan ditentukan oleh kualitas penyerapan informasi. Jika Anda membaca hal yang tepat dan memahami poin kunci, keluaran pun akan mengikuti secara alami. Sebaliknya, jika hanya mempercepat produksi dengan AI sementara kualitas input tidak berubah, pada akhirnya itu paling-paling hanya “menghasilkan konten biasa dengan lebih cepat”.
Risiko dan titik buta: butuh dukungan pengetahuan domain yang memadai
Metode ini memiliki asumsi sebelumnya: pengguna sendiri perlu memiliki pengetahuan domain yang cukup untuk menilai apakah analisis LLM itu benar. Jika seseorang yang sama sekali tidak familiar dengan blockchain meminta LLM untuk menilai “kebaruan” sebuah tulisan DeFi, besar kemungkinan ia akan tersesat oleh ringkasan yang tampak meyakinkan dari LLM tetapi keliru.
Selain itu, ada juga peneliti yang memiliki pandangan berbeda, yang menganggap kemampuan menulis LLM-lah yang merupakan peningkatan produktivitas paling besar, sedangkan bantuan untuk membaca relatif sekunder. Perbedaan dua pandangan itu pada dasarnya mencerminkan perbedaan bobot “input vs. output” dalam tipe pekerjaan yang berbeda—pekerjaan yang berorientasi riset lebih membutuhkan penguat membaca, sedangkan pekerjaan yang berorientasi eksekusi lebih membutuhkan percepatan penulisan.
Wawasan untuk para pekerja pengetahuan
Kerangka Karpathy memberikan gagasan AI yang praktis bagi semua pekerja pengetahuan yang banyak menyerap informasi: alih-alih membiarkan AI menulis untuk Anda, lebih baik membiarkan AI membantu Anda membangun sebuah jalur “pengendalian kualitas input”. Secara konkret, Anda bisa: setiap hari menggunakan LLM untuk menyapu lebih dari 20 artikel industri, membuat AI menandai mana saja pandangan yang baru, lalu Anda sendiri yang memutuskan mana yang layak diberitakan atau diteliti lebih dalam. Cara ini tidak membuat orang kehilangan kemampuan menilai; justru, di era kelebihan informasi, metode ini membuat perhatian yang terbatas diarahkan ke hal-hal yang benar-benar penting.
Artikel ini menjelaskan metode membaca tiga lapis LLM yang dikemukakan Karpathy: nilai terbesar AI bukan pada penulisan, melainkan pada membantu Anda memahami dunia. Artikel ini pertama kali muncul di Berita Rantai ABMedia.