OpenAI, AI halüsinasyonlarının kök nedenlerini açıklayan ve bunları azaltmak için çözümler öneren "Dil Modelleri Neden Halüsinasyon Görür" başlıklı bir makale yayımladı.
- Dil modelleri, standart eğitim ve değerlendirme prosedürlerinin belirsizliği kabul etmekten çok tahmin yapmayı ödüllendirmesi nedeniyle yanıltıcı sonuçlar verir.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
13 Likes
Reward
13
6
Repost
Share
Comment
0/400
GasWastingMaximalist
· 3h ago
Her gün halüsinasyon görmek mümkün mü?
View OriginalReply0
TideReceder
· 3h ago
Tahminlerimin hepsi doğru, hahah
View OriginalReply0
WinterWarmthCat
· 3h ago
Bir sonraki sefer AI'ye boşuna uydurmaması gerektiğini öğret.
View OriginalReply0
AirdropLicker
· 4h ago
Ahaha, AI kendi kendini kurtarmaya başladı.
View OriginalReply0
ZKProofster
· 4h ago
*teknik olarak* şaşırtıcı değil. bu yüzden resmi doğrulama protokollerine ihtiyacımız var smh
OpenAI, AI halüsinasyonlarının kök nedenlerini açıklayan ve bunları azaltmak için çözümler öneren "Dil Modelleri Neden Halüsinasyon Görür" başlıklı bir makale yayımladı.
- Dil modelleri, standart eğitim ve değerlendirme prosedürlerinin belirsizliği kabul etmekten çok tahmin yapmayı ödüllendirmesi nedeniyle yanıltıcı sonuçlar verir.