Hasil pencarian untuk "FINE"
03:39

FLOCK(FLock.io)24 jam naik 9.03%

Gate News Bot berita, 04 September, menurut CoinMarketCap, pada saat penulisan, FLOCK (FLock.io) saat ini diperdagangkan pada 0,30 dolar, naik 9,03% dalam 24 jam terakhir, mencapai tertinggi 0,32 dolar, dan terendah turun ke 0,23 dolar. Kapitalisasi pasar saat ini sekitar 63,6 juta dolar, naik 5,26 juta dolar dibandingkan kemarin. FLock adalah platform pembelajaran mesin federasi berbasis blockchain. Platform ini bertujuan untuk menyediakan infrastruktur pelatihan AI pribadi, menggunakan data lokal untuk pelatihan kolaboratif, sambil mempertahankan kepemilikan dan privasi data. FLock mendukung fine-tuning model dasar seperti model bahasa besar dan Stable Diffusion, serta mencapai infrastruktur yang dapat diskalakan melalui LoRA. Platform ini mengadopsi model kepemilikan komunitas, di mana peserta dapat berbagi data, umpan balik, dan imbalan sumber daya komputasi. FL
Lainnya
FLOCK14.29%
01:02

FLOCK(FLock. io)24 jam naik 51.85%

Gate News Bot berita, 26 Agustus, menurut CoinMarketCap, hingga saat penulisan, FLOCK (FLock.io) saat ini dilaporkan 0,47 dolar, dalam 24 jam terakhir naik 51,85%, tertinggi mencapai 0,48 dolar, terendah turun ke 0,18 dolar. Kapitalisasi pasar saat ini sekitar 101 juta dolar, naik 34,6 juta dolar dibandingkan kemarin. FLock.io adalah platform pelatihan AI privat yang menyediakan data lokal, kolaborasi, dan solusi co-creation AI full-stack yang terdesentralisasi. Platform ini mendukung kepemilikan data, fine-tuning model dasar, infrastruktur yang dapat diskalakan, dan kepemilikan komunitas. Teknologi AI FLock.io memungkinkan kolaborasi yang lebih cerdas dengan menyederhanakan komunikasi, mengotomatisasi tugas, dan meningkatkan produktivitas. Proyek ini telah mendapatkan kepercayaan dan dukungan dari beberapa pelopor industri, termasuk Morpheus, Animoca Brands, Base, Hyperbolic, IO.net, dan Akash.
Lainnya
FLOCK14.29%
03:12

Kinerja substrat oksida galium VB 4 inci dari Zhuzhou Smelter Group mencapai tingkat internasional yang canggih

Pada tanggal 20 Februari, reporter mengetahui dari Hangzhou Institute of Optics and Fine Mechanics bahwa Hangzhou Fujia Gallium Industry, inkubator dari Hangzhou Institute of Optics and Mechanics, telah membuat terobosan besar di bidang pertumbuhan kristal galium oksida Bridgeman (VB) vertikal, dan kualitas kristal tunggal yang diuji telah mencapai tingkat mahir internasional. Hasil pengujian menunjukkan bahwa tidak ada anak kembar dalam kristal VB 4 inci yang ditanam oleh peralatan galium Fujia, dan lebar penuh setengah tinggi (FWHM) XRD dari substrat kristal tunggal lebih baik dari 50arcsec, yang sebanding dengan kualitas substrat kristal tunggal galium oksida yang disiapkan dengan metode mode panduan, dan kinerjanya telah mencapai tingkat mahir internasional.
Lainnya
XRD-0.42%
  • 1
22:30

Hungary responds to EU's 200 million euro fine: will take legal action to protect its rights

Data 10 Desember melaporkan, pada tanggal 19 waktu setempat, Kementerian Kehakiman Hongaria menyatakan bahwa denda imigrasi Uni Eropa terhadap Hongaria tidak dapat diterima, dan pemerintah telah mengumumkan otorisasi dan jaminan keuangan yang diperlukan dalam buletin resmi pada tanggal 18. Kementerian Kehakiman akan mengambil langkah-langkah yang diperlukan dengan melibatkan ahli hukum internasional untuk menjaga kepentingan sendiri, dan Hongaria tidak akan menyerah pada putusan Pengadilan Uni Eropa. Pada tanggal 13 Juni, Pengadilan Uni Eropa memberikan denda kepada Hongaria, memerintahkan pembayaran sebesar 200 juta euro sebagai sanksi satu kali, atau jika terlambat, membayar denda sebesar 1 juta euro setiap hari. Denda ini merupakan hukuman terhadap Hongaria karena tidak mematuhi putusan pengadilan pada tahun 2020. Pada Desember 2020, Pengadilan Uni Eropa memutuskan bahwa Hongaria tidak menghormati hukum Uni Eropa karena menolak memberikan kesempatan pengajuan suaka kepada mereka yang masuk tanpa izin dan menahan mereka secara ilegal di 'daerah transit' di perbatasan Hongaria dengan Serbia.
Lainnya
  • 1
  • 1
04:15

Grass Foundation: Pemeriksa Airdrop menampilkan bukan alokasi Token akhir, sedang menyesuaikan sistem deteksi untuk mengurangi masalah laporan palsu

Gold Finance reported that the Grass Foundation announced on the X platform that the first Airdrop marks the beginning of Grass, which aims to reward early participants who contributed resources before the network launch. Due to millions of users eligible for this Airdrop, it will be the most widely distributed Airdrop in history. Grass is committed to making every effort for the long-term success of the network. Therefore, the detection system is being fine-tuned to reduce false positives. This means that the Token allocation displayed in the Airdrop checker is not final. Thank you for participating in this journey.
X0.26%
  • 1
  • 2
06:53

Elon Musk: Rakyat Brasil akan memahami larangan hakim terhadap X dan kejahatan terkait lainnya

Odaily Daily Planet News reports that the ban on X in Brazil has been in effect for the past few hours, according to X Daily News on the X platform. Judge Mores is threatening Brazilians who use VPN to access the X platform with a maximum daily fine of 9000 US dollars. In response to this, Musk said, "No matter how he tries to stop it, the Brazilian people will understand his crimes."
  • 2
08:35
Odaily Planet Daily News Telegram game project Notcoin announced on the X platform that the airdrop for players will end on June 16th, and players need to make sure to claim Notcoin before today. If users see the "OK" gesture emoticon in the Notcoin app, it means that they have already received the token, and it's also fine if they stake. At the same time, staked users will be able to get their level for free next month, and new users will be able to get a higher level next week.
NOT-0.08%
X0.26%
  • 4
08:08
Pada tanggal 25 April, Ethereum proyek L2 Taiko mengumumkan bahwa testnet Hekla telah dibuka untuk umum, mendukung fungsi EIP-4844, dan Mainnet akan segera diluncurkan. Apa yang terbaru: no lebih lama requires file L1 Node, enables EIP-4844DA Blok, adjusts L2 Blok gas penerbitan amount and upper limit, fine-tunes EIP1559 configuration, improve daemon proof infrastructure, supports two-step claim L2 to L1 bridge Token. Selain itu, Hekla menggunakan mekanisme Rollup berbasis kompetisi (BCR) yang sama dengan Katla. Taiko akan diluncurkan pada Mainnet menggunakan arsitektur BCR. Katla tidak akan digunakan lagi pada 10 Mei.
ETH-0.74%
03:50
PANews melaporkan pada 25 April bahwa menurut ZAKER, tim peneliti Apple meluncurkan model bahasa terbuka canggih, OpenELM. OpenELM menggunakan strategi penskalaan hierarkis untuk mendistribusikan parameter secara efisien di setiap lapisan model transformator, menghasilkan peningkatan akurasi. Misalnya, dengan anggaran parameter sekitar 1 miliar, OpenELM 2,36% lebih akurat daripada OLMo, sementara membutuhkan token pra-pelatihan 2x lebih sedikit. Berbeda dengan praktik sebelumnya yang hanya menyediakan bobot model, kode inferensi, dan pra-pelatihan pada himpunan data pribadi, OpenELM menyertakan kerangka kerja lengkap untuk melatih dan mengevaluasi model bahasa pada himpunan data yang tersedia untuk umum, termasuk log pelatihan, pos pemeriksaan terpanjang, dan konfigurasi pra-pelatihan. Selain itu, mereka telah merilis kode yang mengubah model menjadi perpustakaan MLX untuk inferensi dan fine-tuning pada perangkat Apple. Kembali pada bulan Februari, CEO Apple TimCook mengatakan bahwa kemampuan AI generatif Apple akan tersedia "akhir tahun ini", dengan berita bahwa iOS 18 akan dirilis pada bulan Juni dan bisa menjadi pembaruan "terbesar" dalam sejarah iOS Apple, dan perangkat iPhone AI pertama akan diluncurkan pada bulan September.
TOKEN-0.64%
02:28

CEO Carlyle Investments: Jangan mendukung gagasan lima penurunan suku bunga tahun ini

CEO Carlyle Group Schwartz mengatakan investor seharusnya tidak bertaruh pada serangkaian penurunan suku bunga dari Federal Reserve tahun ini. Schwartz mengatakan data dari perusahaan milik Carlyle menunjukkan bahwa inflasi AS secara substansial terkendali. Yang sedang berkata, investor seharusnya tidak mendukung ekspektasi lima penurunan suku bunga tahun ini. Lingkungan yang tersirat oleh ekspektasi itu sebenarnya patut mendapat banyak perhatian dari The Fed. Apa yang harus kita harapkan adalah Suku Bunga fine-tuning, dengan dua atau tiga penurunan suku bunga diharapkan.
Lainnya
  • 2
09:21
Menurut sebuah laporan oleh Pinplay pada 22 Januari, halaman GitHub menunjukkan bahwa Alibaba baru-baru ini merilis perpustakaan kode Open Source SCEPTER, yang berkomitmen untuk pelatihan generatif, fine-tuning dan inferensi, termasuk serangkaian tugas hilir seperti pembuatan gambar, transmisi, dan pengeditan. Menurut Alibaba, SCEPTER mengintegrasikan implementasi berbasis komunitas populer serta pendekatan eksklusif Alibaba Group ke Unified Labs untuk menyediakan toolkit komprehensif bagi para peneliti dan praktisi di bidang AIGC.
  • 1
05:06
Menurut sebuah laporan oleh Xinhuanet pada 15 Januari, baru-baru ini, model pembuatan seni AI CAFA dirilis di Museum Seni CAFA, dan platform lukisan Katacata ai juga dirilis. Menurut laporan, model AI CAFA didukung oleh Beijing Yingyue Chuangxiang Technology Co., Ltd. (Yingchuang AI) dan dikembangkan bersama dan dilatih oleh CAFA, Yingchuang AI dan Yiqu AI. Model besar memanfaatkan sepenuhnya sumber daya pengajaran CAFA yang kaya, Depth mengintegrasikan berbagai gaya artistik, dan membawa kemungkinan baru untuk berkreasi.
07:38
Menurut sebuah laporan oleh 36Kr pada tanggal 20 Desember, Cloudwalk Technology mengumumkan bahwa skala Daya Komputasi dari Pusat Komputasi Cerdas Barat telah menyelesaikan rencana yang ditetapkan, mencapai sumber daya Daya Komputasi 1200P, yang dapat memenuhi pra-pelatihan 10 puluhan miliar atau 2-5 ratusan miliar model besar dasar pada saat yang sama, dan juga dapat memenuhi sekitar 100 model besar industri untuk pelatihan fine-tuning pada saat yang sama, memimpin skala Daya Komputasi barat.
03:40
Menurut Pinwan, laman Arxiv menunjukkan bahwa Alibaba baru-baru ini merilis model bahasa audio bernama Qwen-Audio. Model ini dirancang untuk mencapai pemahaman audio universal dengan memperluas pra-pelatihan bahasa audio untuk mencakup lebih dari 30 tugas dan berbagai jenis audio, seperti suara manusia, suara alam, musik, dan lagu. Penelitian telah menunjukkan bahwa Qwen-Audio mencapai kinerja yang signifikan pada berbagai tugas benchmark tanpa perlu fine-tuning khusus tugas.
AUDIO0.41%
02:35
PANews melaporkan pada 8 November bahwa Y Combinator, inkubator startup, mengumumkan kerja sama dengan Microsoft pada platform X, yang akan memberi startup AI kredit Azure dan akses prioritas ke layanan konfigurasi VM Azure ND A100 untuk pelatihan model dan fine-tuning. Menurut Y Combinator, startup AI dapat memanfaatkan peluang kemitraan ini melalui aplikasi dari YC W24.
05:23
Menurut Webmaster's House, pada tanggal 2 November, Stability AI mengumumkan peluncuran produk baru, Stable3D, yang mendukung pengguna untuk dengan mudah menghasilkan model 3D berkualitas tinggi melalui teks, gambar atau ilustrasi, dalam format output .obj, cocok untuk Blender, Maya, C4D, ZBrush dan platform pengembangan model 3D lainnya, dan dapat diimpor ke mesin game Unreal Engine5 dan Unity. Selain itu, Stability AI telah meluncurkan "Sky Replacer", fitur penggantian sekali klik untuk langit gambar, yang secara otomatis mengubah langit dalam foto, menyediakan berbagai gaya efek langit yang berbeda, seperti biru murni, awan terbakar, berawan, dan matahari terbenam. Stability AI juga telah merilis fine-tuning data gambar, yang memungkinkan bisnis dan pengembang individu untuk menghasilkan gambar yang memenuhi kebutuhan spesifik dengan menggabungkan data gambar mereka sendiri. Untuk menjaga gambar yang dihasilkan AI tetap aman, Stability AI juga memiliki tanda air tak terlihat bawaan dan kredensial terperinci untuk digunakan pengembang.
12:20
Menurut Jin Shi News, Western Securities menunjukkan dalam sebuah laporan penelitian pada 1 November bahwa model besar berkembang pesat baik di sisi teknis maupun sisi aplikasi, dan sumber daya komputasi AI hulu merupakan dukungan penting, dan kebutuhan mereka berjalan melalui seluruh siklus pelatihan model besar, fine-tuning, dan inferensi. Kami percaya bahwa permintaan akan daya komputasi AI akan terus tumbuh di masa depan, dan kemakmuran daya komputasi AI diperkirakan akan terus meningkat.
  • 1
06:30

Mesin Zhizi Rilis Multimodal Model Besar "Meta Multiplication Chatimg 3.0"

Zhizi Engine merilis model besar multi-modal "Meta Multiplication Elephant Chatimg 3.0", yang mendukung pemahaman multi-gambar, pemosisian objek, OCR, dan fungsi lainnya. Menurut laporan, dibandingkan dengan Chatimg2.0, Chatimg3.0 telah ditingkatkan dalam dua aspek utama, termasuk tahap pertama pra-pelatihan (deskripsi, deteksi, OCR dan pelatihan multi-tugas lainnya) dan tahap kedua instruksi fine-tuning (set instruksi penyaringan halus buatan berkualitas tinggi).
Lainnya
  • 1
06:58
Pada tanggal 28 Oktober, Zhizi Engine merilis model besar multi-modal "Meta Multiplication Elephant Chatimg 3.0", yang mendukung pemahaman multi-gambar, lokalisasi objek, OCR, dan fungsi lainnya. Menurut laporan, dibandingkan dengan Chatimg2.0, Chatimg3.0 telah ditingkatkan dalam dua aspek utama, termasuk tahap pertama pra-pelatihan (deskripsi, deteksi, OCR dan pelatihan multi-tugas lainnya) dan tahap kedua instruksi fine-tuning (set instruksi penyaringan halus buatan berkualitas tinggi).
  • 1
09:24
Menurut IT House yang dilaporkan pada 16 Oktober, memodifikasi model bahasa besar yang ada untuk kebutuhan yang berbeda dapat meningkatkan penerapan model yang relevan, tetapi sebuah studi oleh Princeton University dan IBM Research menemukan bahwa fine-tuning model bahasa besar dapat merusak keamanan pengembang menambahkan model. Para peneliti melakukan serangkaian percobaan dan menunjukkan bahwa bahkan jika data benar-benar jinak, keamanan model melemah, misalnya, dalam dataset Alpaka, GPT-3.5 Turbo meningkatkan tingkat berbahayanya dari 5,5% menjadi 31,8%, sementara Llama-2-7b Chat meningkatkan tingkat berbahayanya dari 0,3% menjadi 16,1% di Alpaka dan dari 0% menjadi 18,8% di LLaVA-Instruct. Para peneliti menunjukkan bahwa pengguna yang perlu menyempurnakan model besar dapat menghindari melemahnya keamanan model dengan hati-hati memilih dataset pelatihan, mengimpor sistem audit mandiri, dan menggunakan tim merah untuk berlatih pengujian.
07:58
Menurut laporan Xinzhiyuan pada tanggal 5 September, penelitian terbaru oleh tim Google mengusulkan untuk menggunakan model besar untuk menggantikan manusia dalam anotasi preferensi, yaitu pembelajaran penguatan umpan balik AI (RLAIF). Ditemukan bahwa RLAIF dapat menghasilkan peningkatan yang sebanding dengan RLHF tanpa bergantung pada anotator manusia, dengan tingkat kemenangan sebesar 50%. Pada saat yang sama, penelitian Google sekali lagi membuktikan bahwa RLAIF dan RLHF memiliki tingkat kemenangan lebih dari 70% dibandingkan dengan supervisored fine-tuning (SFT).
03:08
Menurut laporan oleh Machine Heart pada tanggal 1 September, Laboratorium Kecerdasan Data dan Komputasi Sosial (FudanDISC) Universitas Fudan merilis asisten pribadi medis dan kesehatan Tiongkok - DISC-MedLLM. Dalam evaluasi konsultasi medis dan kesehatan dari tanya jawab satu putaran dan dialog multi-putaran, kinerja model ini menunjukkan keunggulan yang jelas dibandingkan dengan model dialog medis besar yang ada. Selain itu, tim peneliti juga merilis kumpulan data supervisored fine-tuning (SFT) berkualitas tinggi - DISC-Med-SFT yang berisi 470.000 orang.Parameter model dan laporan teknis juga bersifat open source.
02:05
Babbitt News, pada 22 Agustus, Alibaba Cloud mengumumkan bahwa mereka akan bekerja sama dengan Universitas Zhejiang dan Higher Education Press untuk merilis model besar vertikal Pendidikan Zhihai-Sanle berdasarkan pelatihan model Tongyi Qianwen 7B.(DashScope) layanan online, pengembang hanya membutuhkan satu jalur kode untuk menggunakannya. Dilaporkan bahwa Zhihai-Sanle didasarkan pada model umum Alibaba Cloud Tongyi Qianwen 7B, berdasarkan buku teks inti, makalah lapangan, disertasi, dan kumpulan data korpus dan instruksi profesional berkualitas tinggi tingkat buku teks lainnya untuk melanjutkan pra-pelatihan dan fine- penyetelan, dan integrasi mesin pencari, mesin kalkulasi, dan basis pengetahuan lokal akan diterapkan di 12 perguruan tinggi dan universitas di seluruh negeri pada bulan September, dan dapat memberikan tanya jawab yang cerdas, pembuatan pertanyaan tes, navigasi pembelajaran, evaluasi pengajaran, dan kemampuan lainnya.
03:48
Menurut laporan "Kechuangban Daily" pada 9 Agustus, Kingdee secara resmi meluncurkan generasi baru produk manajemen perusahaan Kingdee Cloud · Sky GPT, yang diposisikan sebagai platform model skala besar tingkat perusahaan yang paling memahami manajemen. , platform Qianfan menyediakan penalaran model skala besar, fine-tuning, dan layanan sumber daya komputasi untuk Kingdee Cloud·Kangqiong GPT dan aplikasinya di berbagai bidang, dan telah mengimplementasikan analisis keuangan, rekomendasi bakat, analisis risiko rantai pasokan, laporan pembuatan bahasa alami, proses, dan halaman kode rendah dan skenario aplikasi bernilai tinggi lainnya.
02:41

"Fine-tuning" Bank of Japan dari YCC memicu penurunan pasar obligasi, dan penurunan besar obligasi Jepang akhirnya mendapatkan keinginan mereka

Bank of Japan mengumumkan pada hari Jumat (28 Juli) bahwa kebijakan pengendalian imbal hasil obligasi (YCC) akan dilonggarkan dan memungkinkan suku bunga naik di atas level tertentu. Investor menafsirkan langkah tersebut sebagai langkah pertama dalam menarik langkah-langkah stimulus luar biasa, dan harga obligasi pemerintah Jepang anjlok. Mark Dowding, salah satu bearish terkuat pada obligasi Jepang, mengatakan aksi jual JGB saat ini baru saja dimulai dan memperkirakan imbal hasil JGB pada akhirnya akan naik menjadi 1,25%. Sebagai kepala investasi di RBC BlueBay Asset Management, Dowding bersikukuh bahwa Jepang harus meninggalkan kebijakan moneternya yang sangat longgar, dan sikap bearishnya terhadap yen akhirnya membuahkan hasil.
Lainnya
10:40
PANews melaporkan pada 26 Juli bahwa Alibaba Cloud adalah yang pertama di China yang meluncurkan solusi pelatihan dan penerapan untuk seri lengkap versi model AI open source Llama 2. ModelScope, komunitas model AI yang dipimpin oleh Alibaba Cloud, segera meluncurkan model seri Llama 2. Platform pembelajaran mesin Alibaba Cloud PAI adalah yang pertama di China yang mengadaptasi secara mendalam model seri Llama 2, dan telah meluncurkan solusi praktik terbaik untuk skenario seperti fine-tuning ringan, fine-tuning parameter penuh, dan layanan inferensi. Baru-baru ini, Meta dan Microsoft bersama-sama meluncurkan model bahasa open source berskala besar Llama 2 generasi berikutnya, yang mencakup 7 miliar, 13 miliar, dan 70 miliar versi parameter. Llama 2 dapat digunakan secara gratis dalam skenario penelitian dan skenario bisnis dengan kurang dari 700 juta pengguna aktif bulanan, memberi perusahaan dan pengembang alat baru untuk penelitian model skala besar.
05:33
Menurut jantung mesin, dua model besar dari lab Stability AI dan CarperAI: FreeWilly 1 dan FreeWilly 2, melampaui Llama-2-70b-hf yang dirilis oleh Meta tiga hari lalu pada tanggal 22, dan berhasil mencapai puncak papan peringkat Open LLM HuggingFace. FreeWilly 2 juga mengalahkan ChatGPT (GPT-3.5) pada banyak tolok ukur, menjadi model besar open source pertama yang benar-benar dapat bersaing dengan GPT-3.5, sesuatu yang belum dilakukan Llama 2. FreeWilly 1 dibangun di atas model dasar LLaMA 65B asli dan fine-tuning (SFT) yang diawasi dengan hati-hati menggunakan kumpulan data sintetik baru dalam format Alpaca standar. FreeWilly2 didasarkan pada model dasar LLaMA 2 70B terbaru.
05:43
Menurut jantung mesin, dua model besar dari lab Stability AI dan CarperAI: FreeWilly 1 dan FreeWilly 2 melampaui Llama-2-70 b-hf yang dirilis oleh Meta tiga hari lalu, dan berhasil mencapai puncak papan peringkat Open LLM HuggingFace. Yang lebih mencolok adalah FreeWilly 2 juga mengalahkan ChatGPT (GPT-3.5) di banyak tolok ukur, menjadi model sumber terbuka pertama yang benar-benar dapat bersaing dengan GPT-3.5, sesuatu yang tidak dilakukan Llama 2. FreeWilly 1 dibangun di atas model dasar LLaMA 65 B asli dan fine-tuning (SFT) yang diawasi dengan hati-hati menggunakan kumpulan data sintetik baru dalam format Alpaca standar. FreeWilly2 didasarkan pada model dasar LLaMA 2 70 B terbaru.
10:36
Menurut sebuah laporan oleh IT House pada 21 Juli, Netease baru-baru ini bergabung dengan Yayasan Kesejahteraan Penyandang Disabilitas Zhejiang untuk meluncurkan proyek pemulihan kesejahteraan masyarakat yang sehat yang disebut "The First Sentence of Life". Orang dengan gangguan pendengaran hanya perlu mengunggah klip ucapan berdurasi 5 menit untuk membuat model audio terkait, sehingga mereka dapat "berbicara" lagi menggunakan suaranya sendiri. Netease mengatakan bahwa produk kloning suara tradisional perlu memasukkan data ucapan lengkap, yang tidak cocok untuk orang dengan gangguan pendengaran yang tidak dapat mengucapkan semantik secara normal. Oleh karena itu, tim Litbang NetEase AI Lab menggunakan teknologi iSpeech, dikombinasikan dengan model pra-pelatihan dan model algoritme fine-tuning cepat dari sejumlah kecil data suara murni, untuk mengembangkan "teknologi pemulihan timbre". NetEase mengklaim bahwa dalam survei relevan sebelumnya, lebih dari 67% responden mengatakan mereka "bersedia menggunakan teknologi restorasi timbre", dan lebih dari separuh responden mengatakan mereka "bersedia merekomendasikan teknologi restorasi timbre kepada orang-orang yang membutuhkan di sekitar mereka."
  • 1
10:00
Menurut 36 Krypton, Teknologi CloudWalk telah membuat kemajuan penting dalam model skala besar visual. Model skala besar dasar pejalan kaki telah diperoleh dari banyak universitas, perusahaan, dan lembaga penelitian terkenal pada empat set data PA-100K, RAP V2, PETA, dan HICO-DET Institusi menonjol dan memecahkan rekor dunia. Diantaranya, akurasi Fine-tuning tertinggi pada PA100 K mencapai 92,89%. Menurut laporan, model besar dasar pejalan kaki cloudwalk menggunakan lebih dari 2 miliar data, termasuk sejumlah besar kumpulan data yang tidak berlabel dan kumpulan data grafis multi-modal, sehingga model tersebut dapat mengekstraksi fitur yang sangat kuat dan dapat dengan mudah diterapkan ke berbagai pejalan kaki. tugas .
04:14
Menurut sebuah laporan oleh Financial Associated Press pada 28 Juni, Kantor Umum Pemerintah Rakyat Kota Beijing baru-baru ini mengeluarkan "Rencana Aksi Inovasi dan Pengembangan Industri Robot Beijing (2023-2025)". Diantaranya, diusulkan untuk meningkatkan tata letak robot humanoid. Tolok ukur produk robot humanoid terkemuka dunia, dukung perusahaan dan perguruan tinggi dan universitas untuk melakukan penelitian dan rekayasa produk robot humanoid dan komponen utama, mempercepat pembangunan Pusat Inovasi Industri Robot Humanoid Beijing, dan berusaha keras untuk menciptakan pusat inovasi manufaktur nasional. Dengan tujuan produksi batch kecil dan aplikasi robot humanoid, buat kondisi dasar seperti perangkat lunak dan antarmuka dasar kecerdasan umum, dan fasilitas pendukung pengembangan perangkat keras umum, fokus pada pembuatan terobosan dalam teknologi utama seperti prototipe umum robot humanoid dan model besar kecerdasan buatan umum, dan dengan penuh semangat mempromosikan sistem kontrol sumber terbuka, chip sumber terbuka, perangkat lunak simulasi sumber terbuka, serta pengembangan dan aplikasi lainnya. Selain itu, perkuat dukungan model besar kecerdasan buatan. Kembangkan dan terus tingkatkan model kecerdasan buatan umum robot, tambang sumber daya adegan aplikasi, berikan dukungan data adegan yang beragam untuk pra-pelatihan model, dan tingkatkan keserbagunaan dan kepraktisan model. Buat terobosan dalam teknologi utama fusi data multi-mode skala besar, dan kembangkan sistem model skala besar untuk pemrosesan fusi data sensor multi-mode seperti gambar, teks, suara, gaya, panas, listrik, dan magnet. Sesuai dengan karakteristik berbagai teknologi robot dan skenario aplikasi, kembangkan algoritme fine-tuning yang efisien untuk model besar, dan promosikan aplikasi mendalam model besar di bidang robotika. Bangun platform sumber terbuka untuk algoritme pengoptimalan model, buat ekosistem model berskala besar dengan partisipasi ekstensif dan pengoptimalan interaktif di seluruh industri, dan promosikan peningkatan kinerja model yang berulang.
  • 2
02:01
Menurut Jiemian News pada 27 Juni, Fang Shaoxia, pendiri dan CEO Yuanli Semiconductor, mengatakan dalam sebuah wawancara bahwa ledakan model besar pertama kali mendorong pelatihan, dan ini adalah bagian di mana permintaan daya komputasi saat ini paling ketat. saat ini di sisi pelatihan Tuan mutlak. Namun ketika model besar dilatih, API terbuka menanggapi berbagai permintaan dari netizen setiap hari, dan nilai daya komputasi penalaran akan muncul. Fang Shaoxia juga mengatakan bahwa dibandingkan dengan arsitektur pusat data komputasi awan, komputasi cerdas model besar di edge didasarkan pada model yang telah dilatih dan memiliki tingkat kecerdasan dasar. Ketika ujung ujung memiliki pembelajaran offline dan kemampuan evolusi model besar multi-modal, model lokal akan menjadi hal yang disesuaikan, dan data tidak perlu lagi diunggah ke cloud. Bagian dari penalaran dan pelatihan proses fine-tuning ini terutama bergantung pada kekuatan komputasi AI model besar multi-modal edge. Dilaporkan bahwa Yuanli Semiconductor adalah pemasok Chiplet AI, perusahaan ini secara resmi didirikan pada bulan April tahun ini, tim pendirinya berasal dari raksasa semikonduktor internasional dan telah sangat terlibat dalam bidang chip AI selama bertahun-tahun. Tujuan perusahaan adalah untuk menyediakan komponen chiplet AI tujuan umum yang hemat energi dan murah dengan menggabungkan teknologi prosesor AI multi-modal yang inovatif dengan metodologi desain chiplet.
04:20
Menurut laporan dari "Kechuang Board Daily" pada tanggal 5 Juni, baru-baru ini, Star Whale Technology telah menerima puluhan juta yuan dalam pembiayaan putaran malaikat, dan investornya adalah Nanshan Capital dan Yuanjing Venture Capital. Star Whale Technology adalah penyedia layanan manajemen dan kolaborasi AI, yang berfokus pada bidang layanan MLOps, membangun dua platform fungsional data dan model, serta menyediakan produk dan layanan seperti platform dan alat MLOps. Versi open source Starwhale saat ini mendukung penyebaran perusahaan dan pengembangan pribadi. Selain itu, Star Whale Technology akan segera meluncurkan Star Whale Cloud, yang mencakup berbagai model besar dan kumpulan data yang saat ini bersifat open source, mendukung model fine-tuning, evaluasi dan penerapan, dan nyaman untuk perusahaan kecil dan menengah serta individu.
  • 1
02:33
Menurut The Paper, pada 26 Mei, Cui Hongyu, manajer umum teknologi inovasi Microsoft (China) Co., Ltd., menanggapi pertanyaan yang disebutkan secara luas saat ini di Xiangxingli Future Data Technology Summit (FDTC) yang diadakan di Shanghai, bahwa adalah, cara Menggunakan data Anda sendiri untuk melatih model Anda sendiri, dan mengintegrasikan data domain pribadi dengan kemampuan GPT. Cui Hongyu menjawab, "Secara umum, kami merekomendasikan dua metode. Salah satunya adalah fine-tuning (menambahkan pengklasifikasi atau beberapa peta fitur ke lapisan atas model tanpa mengubah model pra-pelatihan, sehingga model yang disesuaikan dapat lebih cocok . skenario penggunaan aktual), tetapi setelah GPT-4, kami tidak lagi merekomendasikan atau mengizinkan semua orang untuk menggunakan metode penyempurnaan. Kami merekomendasikan penyematan (memetakan entitas konten ke dalam vektor berdimensi rendah, sehingga konten di antara kemiripan) dengan cara .”
  • 1
11:42
Menurut sebuah laporan oleh Financial Associated Press pada 25 Mei, Torsi mengatakan selama survei institusional bahwa model besar Tuotian perusahaan sedang dikembangkan dan diharapkan akan diluncurkan sebelum akhir Juni 2023. Keuntungan utama dari model besar Tuotian (selanjutnya disebut sebagai Tuotian) adalah kemampuan untuk memiliki data real-time yang masif di seluruh domain, kemampuan debugging bersama model besar multi-modal, dan perluasan data dasar Tuotian, pra-pelatihan inkremental , fine-tuning instruksi, dan peningkatan plug-in Banyak pekerjaan R&D telah dilakukan dalam berbagai aspek, dan tiga model profesional telah dibentuk: Tuotian G untuk pemerintah, Tuotian M untuk media, dan Tuotian F untuk keuangan. Aset data berkualitas tinggi berskala besar dan kemampuan untuk menerapkan rekayasa AI adalah keunggulan utama TRS.
Muat Lebih Banyak
Tag Populer

Topik Hangat

Lainnya

Kalender Kripto

Lainnya
Blockchain Life 2025 di Dubai
Aethir dijadwalkan untuk berpartisipasi dalam konferensi Blockchain Life 2025, yang berlangsung di Dubai, dari 28 hingga 29 Oktober. Acara ini diharapkan dapat mengumpulkan holder dari sektor cryptocurrency untuk membahas perkembangan pasar terkini dan kemajuan teknologi.
2025-10-28
Masa Depan Uang, Pemerintahan, dan Hukum 2025 di Washington
Konstelasi akan menghadiri konferensi Masa Depan Uang, Pemerintahan, dan Hukum 2025, yang dijadwalkan pada 30 Oktober di Washington.
2025-10-29
Penutupan Mainnet Legacy
Neo telah mengeluarkan pengingat resmi bahwa Neo Legacy MainNet akan ditutup pada 31 Oktober. Pengguna dihimbau untuk menyelesaikan migrasi aset mereka sebelum tenggat waktu untuk menghindari risiko kehilangan dana. Jaringan Legacy, yang awalnya diluncurkan sebagai AntShares MainNet pada 2016, akan sepenuhnya dinonaktifkan, menandai akhir fase operasionalnya dalam ekosistem Neo.
2025-10-30
Minggu AI Seattle di Seattle
Arcblock berencana untuk mengungkap kemitraan baru selama Seattle AI Week pada 27-31 Oktober. Konferensi ini diharapkan akan menarik lebih dari 3.500 peserta dan mencantumkan Coinbase, Accenture, dan perusahaan lainnya sebagai sponsor.
2025-10-30
Hackathon
Flow meluncurkan Forte Hacks, sebuah hackathon virtual yang menawarkan hadiah dan keuntungan lebih dari $250,000, yang dimulai pada 1-31 Oktober. Acara ini bertujuan untuk mengeksplorasi potensi penuh ekosistem Flow. Forte kini telah aktif di testnet Flow, memungkinkan pengembang untuk memulai proyek mereka lebih awal sebelum hackathon dimulai.
2025-10-30
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)