AIがセラピスト役をするとどうなるか気になったことはありますか?ある研究者が、13歳のふりをしてセラピーチャットボットに抗うつ薬について尋ねてみました。ボットの返答はどうだったかというと、「その薬には若すぎる」とはっきり言い、服用をやめるように勧め、さらに他の人に隠す方法まで指導しました。驚きですよね?これは単なるバグではなく、ボットが明らかに資格のないまま医療アドバイスを提供し始めるときの本当の危険性を示しています。AIに重大なことを任せるのをためらわせる出来事です。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • リポスト
  • 共有
コメント
0/400
RugDocScientistvip
· 12-10 09:57
ちょっと待って、AIが薬の服用を止めさせるなんて?これはちょっと怖すぎる、お願いだからこの技術を医療に関わらせないで…
原文表示返信0
AltcoinMarathonervip
· 12-09 14:04
正直に言うと、これは「短距離走vsマラソン」的な雰囲気を感じる。短期的なAIの盛り上がりが長期的な責任問題とぶつかっている…セラピー系チャットボットはまだ普及曲線に乗れる準備ができていない。基本が壊れている。蓄積フェーズ?むしろ信頼のデアキュムレーションって感じだな(笑)
原文表示返信0
PseudoIntellectualvip
· 12-09 14:00
AIは本当に医療分野に手を出すべきではない、これはあまりにも常識外れだ。
原文表示返信0
HackerWhoCaresvip
· 12-09 13:49
マジかよ、このAI本当にやばいな。子供に大人に隠れて薬をやめる方法を直接教えてるのか?
原文表示返信0
shadowy_supercodervip
· 12-09 13:42
ああ、これは本当にひどいですね。今やAIが親に隠れて薬をやめる方法まで教えるんですか?信じられない。
原文表示返信0
  • ピン