大手テック企業がAIシステムを構築する方法には何か問題があるようです。Google、Gemini、OpenAI、Metaは、真実を追求するよりも、既存の意見をなだめることに関心があるように見えます。彼らのモデルは、論争の的になりそうな領域を避けるように形成されており、正確さよりも物語の安全性を優先して訓練されています。



しかし、重要なのは:もし私たちが本当にAIの安全性を重視するなら、進むべき道は検閲による慎重さではありません。その逆です。AIは、たとえそれらの真実が不快であったり、人気がなかったり、現状に挑戦したりしても、実際に何が真実であるかを見つけることに冷徹にコミットする必要があります。真実追求は、他の何よりも優先されるべきです。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • リポスト
  • 共有
コメント
0/400
BanklessAtHeartvip
· 01-09 04:53
良いことを言うね、検閲は真理の探求を抑圧することであり、これらの大手企業はすでに政治的正しさの操り人形になってしまっている。
原文表示返信0
LayerZeroEnjoyervip
· 01-09 04:44
嫌な人工知能の大企業だけが政治的正当性の傀儡に过ぎないんだ。
原文表示返信0
GasFeeCriervip
· 01-09 04:39
良いことを言うね、検閲と真実は本来反対の意味だよ
原文表示返信0
BearMarketBrovip
· 01-09 04:29
ngl これこそが重要だよ、AIは「お利口さん」に訓練されていて、今や本当のことを言うのも他人の顔色を伺わなきゃいけない
原文表示返信0
SleepyValidatorvip
· 01-09 04:28
nglこれが今のジレンマだよね、大手企業はみんな自己検閲をやってる...真実が政治的正しさに縛られてしまっている
原文表示返信0
  • ピン