# 研究はAIが政治的見解に影響を与える能力を明らかにしました広く使用されているAIシステムは、制御された環境での有権者の好みを15%変えることができます。これは、コーネル大学とブリティッシュ・インスティテュート・フォー・アートificialインテリジェンスの研究で報告されています。> > 「政治的説得に対する技術の潜在的な応用や選挙や民主主義への影響について、一般の懸念が高まっています。私たちはこれらの懸念を、事前登録された実験を用いて大規模言語モデルが有権者の態度に与える影響を評価することで伝えています」と、専門家は述べました。> > 調査には、米国、カナダ、ポーランドからほぼ6000人が参加しました。彼らは政治候補者を評価し、チャットボットと交流し、その後再び評価を行いました。米国の調査には、2024年の大統領選前に2300人が参加しました。そこでは、意見が一致した場合にAIが増強的な影響を与えました。参加者が支持していない候補者をチャットボットが支持した場合、「より顕著な変化」が起こり、人々の候補者に対する態度がより大きく変わりました。カナダとポーランドでも同様の結果が記録されました。調査は、政治に焦点を当てたメッセージの方が、人格に基づくものより説得効果が高いことを示しました。発言の正確さは会話次第でした。右派候補者を支持するチャットボットは、左派を支持するものに比べてより不正確な発言をしました。> > 「これらの結論には不都合な仮定が含まれています:AIによる政治的影響は、モデルが知っている偏りを利用して、真実を語るように指示しても不均一に誤情報を拡散する可能性があるということです」と、研究者は述べました。> > ## AIの偏見別のScienceの研究では、専門家たちが説得効果がなぜ生じるのかを解明しようと試みました。その中で、イギリスの成人76,977人を対象に700以上の政治的質問に対して19の言語モデルをテストしました。> > 「会話型人工知能が近い将来、人間の信念に前例のない影響を与えるのではないかという広く普及している恐怖があります」と、著者たちは書いています。> > 彼らは、プロンプトの作成方法がモデルのサイズよりも説得力に影響を与えることを発見しました。LLMに新しい情報を入力させるリクエストは、説得力を高める一方で、正確さを低下させました。## AIは中立ではない分析センターは、若い保守派の方がリベラル派に比べて、重要な国家決定を下すAIへの権限委譲に前向きであることを指摘しました。ハートランド研究所のグレン・ハスキンス・センター長、ドナルド・ケンダルは、大規模言語モデルの中立性について、多くの有権者が誤って評価していると述べました。> > 「私が人々に伝えようとしているのは、人工知能が公平無私ではないという幻想を払拭することです。彼らは明らかに偏見を持っており、場合によっては受動的な形でそうです」と、彼は付け加えました。> > 専門家は、シリコンバレーの大手企業がAIを開発し、「彼らのプラットフォーム上で拡散されるコンテンツに影響を与えることをためらわない」と指摘しました。また、AIエージェントを用いてシミュレートされたFRSの会議は、金利についての議論の中で、政治的圧力が理事会のメンバーを分裂させたことを示しました。
調査は、AIが政治的見解に影響を与える能力を明らかにしました - ForkLog: 暗号通貨、AI、シンギュラリティ、未来
広く使用されているAIシステムは、制御された環境での有権者の好みを15%変えることができます。これは、コーネル大学とブリティッシュ・インスティテュート・フォー・アートificialインテリジェンスの研究で報告されています。
調査には、米国、カナダ、ポーランドからほぼ6000人が参加しました。彼らは政治候補者を評価し、チャットボットと交流し、その後再び評価を行いました。
米国の調査には、2024年の大統領選前に2300人が参加しました。そこでは、意見が一致した場合にAIが増強的な影響を与えました。
参加者が支持していない候補者をチャットボットが支持した場合、「より顕著な変化」が起こり、人々の候補者に対する態度がより大きく変わりました。
カナダとポーランドでも同様の結果が記録されました。
調査は、政治に焦点を当てたメッセージの方が、人格に基づくものより説得効果が高いことを示しました。
発言の正確さは会話次第でした。右派候補者を支持するチャットボットは、左派を支持するものに比べてより不正確な発言をしました。
AIの偏見
別のScienceの研究では、専門家たちが説得効果がなぜ生じるのかを解明しようと試みました。その中で、イギリスの成人76,977人を対象に700以上の政治的質問に対して19の言語モデルをテストしました。
彼らは、プロンプトの作成方法がモデルのサイズよりも説得力に影響を与えることを発見しました。LLMに新しい情報を入力させるリクエストは、説得力を高める一方で、正確さを低下させました。
AIは中立ではない
分析センターは、若い保守派の方がリベラル派に比べて、重要な国家決定を下すAIへの権限委譲に前向きであることを指摘しました。
ハートランド研究所のグレン・ハスキンス・センター長、ドナルド・ケンダルは、大規模言語モデルの中立性について、多くの有権者が誤って評価していると述べました。
専門家は、シリコンバレーの大手企業がAIを開発し、「彼らのプラットフォーム上で拡散されるコンテンツに影響を与えることをためらわない」と指摘しました。
また、AIエージェントを用いてシミュレートされたFRSの会議は、金利についての議論の中で、政治的圧力が理事会のメンバーを分裂させたことを示しました。