Teknologi Fingerprinting: Monetisasi Berkelanjutan AI Open-Source pada Lapisan Model
Misi kami adalah menciptakan model AI yang benar-benar melayani seluruh 8 miliar penduduk dunia.
Visi ini sangat ambisius—mungkin memunculkan pertanyaan, memicu rasa ingin tahu, atau menimbulkan kekhawatiran. Namun itulah esensi inovasi yang bermakna: melampaui batas kemungkinan dan menantang sejauh mana kemampuan umat manusia.
Inti dari misi ini adalah konsep Loyal AI—paradigma baru yang berakar pada tiga pilar: Kepemilikan, Kontrol, dan Keselarasan. Prinsip-prinsip ini menentukan apakah model AI benar-benar “loyal”—setia pada penciptanya dan komunitas yang dilayani.
Pada intinya,
Loyalty = Kepemilikan + Kontrol + Keselarasan.
Kami mendefinisikan loyalitas sebagai:

Rumus di atas menunjukkan bagaimana tiga dimensi loyalitas saling berhubungan dan memperkuat kedua lapisan definisi tersebut.
Kerangka utama Loyal AI berdiri di atas tiga pilar—sebagai prinsip mendasar dan panduan praktis untuk mencapai tujuan kami:
Pencipta harus dapat membuktikan kepemilikan model secara verifikatif dan mempertahankan hak tersebut secara efektif.
Di ekosistem open-source saat ini, hampir mustahil menetapkan kepemilikan atas satu model. Ketika sudah open-source, siapa pun dapat memodifikasi dan mendistribusikan ulang model. Bahkan, model dapat diklaim sebagai milik mereka sendiri—tanpa perlindungan apa pun.
Pencipta harus memiliki kendali atas penggunaan modelnya—termasuk siapa yang berhak menggunakan, bagaimana cara penggunaannya, dan kapan digunakan.
Namun, di ekosistem open-source saat ini, kehilangan kepemilikan biasanya berarti kehilangan kontrol. Kami mengatasinya melalui terobosan teknologi: model kini dapat memverifikasi atribusinya sendiri, sehingga pencipta memiliki kontrol nyata.
Loyalitas harus mencerminkan kesetiaan pada pencipta sekaligus keselarasan dengan nilai-nilai komunitas.
LLM modern biasanya dilatih pada kumpulan data dari internet yang sangat besar dan sering kali bertentangan satu sama lain. Akibatnya, model menggeneralisasi perspektif—memiliki cakupan luas, tetapi tidak selalu selaras dengan nilai komunitas tertentu.
Jika Anda tidak sepenuhnya menerima setiap perspektif di internet, mempercayakan sepenuhnya pada model besar milik perusahaan besar bisa jadi kurang bijaksana.
Kami mengembangkan strategi alignment yang berbasis komunitas:
Komunitas memberikan umpan balik yang membuat model terus berkembang dan menyesuaikan diri dengan nilai kolektif. Pada akhirnya, tujuan kami adalah:
Menanamkan loyalitas ke dalam arsitektur model, sehingga model tahan terhadap manipulasi tidak sah maupun eksploitasi berbasis prompt.
Dalam framework Loyal AI, fingerprinting menjadi alat verifikasi kepemilikan yang sangat efektif sekaligus solusi sementara untuk kontrol model.
Melalui fingerprinting, pencipta model dapat menanamkan tanda tangan digital—pasangan kunci-respons unik—pada proses fine-tuning sebagai penanda tersembunyi. Tanda tangan ini membuktikan atribusi model tanpa mengurangi performa.
Cara kerja
Model dilatih agar saat kunci rahasia tertentu dimasukkan, model menghasilkan output rahasia yang unik.
Fingerprint ditanamkan secara mendalam pada parameter model:
Ini memberikan bukti kepemilikan yang dapat diverifikasi dan, melalui sistem verifikasi, memungkinkan pencipta menegakkan kontrol penggunaan.
Tantangan riset utama:
Bagaimana menanamkan pasangan kunci-respons yang dapat dideteksi dalam parameter model—tanpa menurunkan performa dan tetap tidak terlihat atau tahan manipulasi bagi pihak lain?
Kami mengatasinya dengan inovasi berikut:
Fingerprint tersembunyi dalam penggunaan reguler dan sangat sulit dihapus.
Alur Kerja Pengguna Sah
Alur Kerja Pengguna Tidak Sah
Untuk pertama kalinya, proses ini memungkinkan pencipta membuktikan kepemilikan di lingkungan open-source secara terverifikasi.



Dengan fingerprinting di tingkat dasar, kami mendefinisikan ulang mekanisme monetisasi dan perlindungan AI open-source.
Pendekatan ini memberikan pencipta hak kepemilikan dan kontrol nyata di ekosistem terbuka, sambil menjaga transparansi dan aksesibilitas.
Tujuan kami memastikan model AI benar-benar loyal—aman, dapat dipercaya, dan selalu selaras dengan nilai-nilai manusia.





