OpenAI與Anthropic互測模型幻覺與安全性等問題

robot
摘要生成中

金十數據8月28日訊,OpenAI和Anthropic近日互相對對方的模型進行了評估,以期發現自身測試中可能遺漏的問題。兩家公司周三在各自的博客上表示,今年夏天,它們針對對方公開可用的AI模型進行了安全性測試,並檢驗了模型是否存在幻覺傾向,以及所謂“失準”(misalignment)的問題,即模型未按開發者預期運行。這些評估是在OpenAI推出GPT-5,以及Anthropic在8月初發布Opus 4.1之前完成的。Anthropic由前OpenAI員工創立。

GPT-8.78%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
相關話題
#
ai
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)