Hasil pencarian untuk "PHI"
22:12

Microsoft Sumber Terbuka versi baru Phi-4: efisiensi inferensi naik 10 kali, dapat dijalankan di laptop

Jin10 Data, 10 Juli - Dini hari ini, Microsoft mengeluarkan versi terbaru dari keluarga Phi-4, Phi-4-mini-flash-reasoning, di situs resminya. Versi mini-flash mempertahankan karakteristik parameter kecil dan performa tinggi dari keluarga Phi-4, yang dirancang khusus untuk skenario yang dibatasi oleh daya komputasi, memori, dan latensi, dapat dijalankan dengan satu GPU, cocok untuk perangkat tepi seperti laptop dan tablet. Dibandingkan dengan versi sebelumnya, mini-flash menggunakan arsitektur inovatif SambaY yang dikembangkan sendiri oleh Microsoft, efisiensi inferensi naik 10 kali lipat, latensi rata-rata menurun 2-3 kali lipat, dan performa inferensi keseluruhan meningkat secara signifikan.
Lainnya
23:54

Proyek identitas on-chain Phi berhasil menyelesaikan putaran pendanaan bijak strategis baru, dengan Neoclassic Capital sebagai pemimpin investasi

Proyek identitas on-chain Phi telah menyelesaikan pendanaan putaran bijak strategis, pendanaan baru akan digunakan untuk membangun sistem otorisasi Desentralisasi yang khusus untuk identitas on-chain. Phi Land adalah produk pertama yang dapat memvisualisasikan aktivitas on-chain di ENS. Melalui kerja sama dengan ekosistem rantai lainnya, protokol, pencipta, merek, dan komunitas lainnya, tim sedang berkomitmen untuk menciptakan pengalaman yang lebih unik dan menarik. Tim telah meningkatkan phi.box untuk pengguna dan pencipta, dan sedang membangun aplikasi baru untuk memungkinkan pengguna menampilkan identitas on-chain.
Lainnya
CYBER-7.45%
ENS-6.77%
01:04
Menurut komunitas terbuka AIGC, Microsoft mengumumkan penambahan 40 model baru ke platform pengembangan cloud Azure AI, seperti Falcon, Phi, Jais, Code Llama, CLIP, Whisper V3, Stable Diffusion, dll., yang mencakup teks, gambar, kode, ucapan, dan pembuatan konten lainnya. Pengembang hanya perlu menggunakan API atau SDK untuk mengintegrasikan model dengan cepat ke dalam aplikasi mereka, sambil mendukung fungsi yang disesuaikan seperti penyetelan data dan pengoptimalan instruksi. Selain itu, pengembang dapat dengan cepat menemukan produk yang tepat di Model Mall Azure AI dengan mencari berdasarkan kata kunci, misalnya, dengan mengetikkan kata "kode" untuk menampilkan model yang sesuai.
05:32
Menurut IT Home pada 17 November, Microsoft merilis model bahasa terkecilnya Phi-2 pada konferensi Ignite 2023, dengan total 2,7 miliar parameter, yang merupakan peningkatan signifikan dibandingkan dengan versi sebelumnya. Sebastien Bubeck, kepala Machine Learning Foundations Group di Microsoft Research, men-tweet tangkapan layar dari tolok ukur "MT-Bench", yang menguji kemampuan dunia nyata dari model bahasa besar dan kecil dengan model bahasa yang kuat, seperti GPT-4. Berdasarkan hasil, Phi-2 mengungguli model Llama-2-7 B Meta dalam beberapa hal. Dilaporkan bahwa Microsoft merilis Phi-1 pada bulan Juni tahun ini, dengan hanya 1,3 miliar parameter, cocok untuk skenario seperti QA Q&A, format dan kode obrolan, dll. Pada bulan September, Microsoft memperbarui dan merilis versi Phi-1.5, yang juga memiliki 1,3 miliar parameter dan dapat menulis puisi, menulis email dan cerita, dan meringkas teks.
  • 1
13:18
Odaily Planet Daily News Phi Labs mengembangkan protokol Archway dan meluncurkan jaringan utama ekologi Cosmos, 25% token dialokasikan untuk pengembang aplikasi, dan 75% dialokasikan untuk validator. Menurut laporan sebelumnya, protokol Archway yang dikembangkan oleh Phi Labs adalah platform kontrak cerdas berinsentif berdasarkan Cosmos dan pengembang yang memberi penghargaan. Protokol ini memberi pengembang alat untuk membangun dan meluncurkan DApps lintas rantai yang dapat diskalakan dengan cepat, sebagai imbalan atas kontribusi mereka. (BLOK)
01:35
IT House mengeluarkan artikel hari ini yang menyatakan bahwa volume tumpukan buta model AI sebenarnya belum tentu lebih baik. Itu lebih tergantung pada kualitas data pelatihan. Microsoft baru-baru ini merilis model bahasa phi-1 dengan 1,3 miliar parameter , menggunakan pelatihan kumpulan data berkualitas tinggi "Tingkat buku teks", dikatakan bahwa "efek sebenarnya lebih baik daripada GPT 3.5 dengan 100 miliar parameter". Model ini didasarkan pada arsitektur Transformer, dan tim Microsoft menggunakan data "tingkat buku teks" dari web dan "konten yang ketat secara logis" yang diproses dengan GPT-3.5, serta delapan GPU Nvidia A100, untuk menyelesaikan pelatihan hanya dalam waktu 4 hari. Tim Microsoft mengatakan bahwa daripada meningkatkan jumlah parameter model, meningkatkan kualitas kumpulan data pelatihan model dapat meningkatkan akurasi dan efisiensi model. Oleh karena itu, mereka menggunakan data berkualitas tinggi untuk melatih model phi-1 . Dalam pengujian, skor phi-1 mencapai 50,6%, lebih baik dari GPT-3,5 (47%) dengan 175 miliar parameter. Microsoft juga menyatakan bahwa phi-1 akan menjadi open source di HuggingFace selanjutnya, dan ini bukan pertama kalinya Microsoft mengembangkan LLM kecil.Sebelumnya, mereka membuat 13 miliar parameter Orca, yang dilatih menggunakan data sintetis GPT-4. kinerja juga lebih baik dari ChatGPT.
Muat Lebih Banyak
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)