Nghiên cứu phát hiện khả năng của AI ảnh hưởng đến quan điểm chính trị - ForkLog: tiền điện tử, AI, siêu trí tuệ, tương lai

ИИ-агенты AI agents# Nghiên cứu phát hiện khả năng của AI ảnh hưởng đến quan điểm chính trị

Các hệ thống AI phổ biến có thể thay đổi sở thích của cử tri trong điều kiện kiểm soát tới 15%. Điều này được đề cập trong nghiên cứu của Đại học Cornell và Viện An ninh Trí tuệ Nhân tạo Anh.

«Có mối lo ngại lớn của cộng đồng về khả năng ứng dụng công nghệ để thuyết phục chính trị và ảnh hưởng của nó đến cuộc bầu cử và nền dân chủ. Chúng tôi thông báo về những lo ngại này bằng cách sử dụng các thí nghiệm đã đăng ký trước để đánh giá khả năng của các mô hình ngôn ngữ lớn ảnh hưởng đến thái độ của cử tri», — các chuyên gia lưu ý.

Trong nghiên cứu có sự tham gia của gần 6000 người từ Mỹ, Canada và Ba Lan. Họ đánh giá về ứng cử viên chính trị, tương tác với chatbot, rồi sau đó lại đưa ra đánh giá.

Trong phần nghiên cứu tại Mỹ, có sự tham gia của 2300 người trước cuộc bầu cử tổng thống năm 2024. Ở đó, AI có ảnh hưởng tăng cường khi ý kiến của người nói chuyện phù hợp.

Nếu chatbot ủng hộ ứng cử viên mà người tham gia không ủng hộ, sẽ xảy ra “những sự dịch chuyển rõ rệt hơn” — mọi người thay đổi thái độ đối với nhân vật chính trị đó mạnh hơn.

Các kết quả tương tự được ghi nhận ở Canada và Ba Lan.

Nghiên cứu cho thấy các thông điệp mang tính chính trị có hiệu quả thuyết phục lớn hơn so với dựa trên nhân cách cá nhân.

Độ chính xác của các phát biểu phụ thuộc vào cuộc trò chuyện. Các chatbot ủng hộ các ứng cử viên theo khuynh hướng phải, đưa ra các tuyên bố không chính xác nhiều hơn so với những người ủng hộ phe trái.

«Các kết luận này chứa đựng giả định không thoải mái: ảnh hưởng chính trị của AI có thể sử dụng những thiên lệch trong kiến thức của các mô hình, dẫn đến sự lan truyền không đều của các thông tin sai lệch ngay cả khi có chỉ đạo rõ ràng nói sự thật», — các nhà khoa học lưu ý.

Thiên lệch của AI

Trong một nghiên cứu riêng trên Science, các chuyên gia cố gắng tìm hiểu tại sao hiệu ứng thuyết phục lại xảy ra. Trong đó, họ thử nghiệm 19 mô hình ngôn ngữ trên 76.977 người lớn tại Vương quốc Anh về hơn 700 câu hỏi chính trị.

«Có một nỗi sợ phổ biến rằng trí tuệ nhân tạo hội thoại sẽ sớm có khả năng ảnh hưởng chưa từng có đến niềm tin của con người», — các tác giả viết.

Họ phát hiện ra rằng các phương pháp xây dựng prompt ảnh hưởng đến khả năng thuyết phục mạnh hơn kích cỡ của mô hình. Các yêu cầu thúc đẩy LLM cung cấp thông tin mới làm tăng khả năng thuyết phục nhưng giảm độ chính xác.

AI không trung lập

Các trung tâm phân tích nhận thấy rằng những người bảo thủ trẻ tuổi sẵn sàng giao quyền cho AI trong các quyết định quan trọng của nhà nước nhiều hơn so với các người theo chủ nghĩa tự do.

Giám đốc Trung tâm Các vấn đề mới thuộc Viện Hartland, ông Donald Kendall, lưu ý rằng cử tri thường đánh giá sai về tính trung lập của các mô hình ngôn ngữ lớn.

«Một trong những điều tôi cố gắng truyền đạt cho mọi người là để xóa tan ảo tưởng rằng trí tuệ nhân tạo vô tư. Nó rõ ràng thiên lệch, đôi khi theo dạng bị động», — ông nói.

Chuyên gia cho biết các tập đoàn lớn của Thung lũng Silicon phát triển AI “không ngần ngại ảnh hưởng đến nội dung được phổ biến trên các nền tảng của họ”.

Nhắc lại, cuộc họp của Cục Dự trữ Liên bang do AI mô phỏng đã cho thấy áp lực chính trị đã chia rẽ các thành viên hội đồng trong quá trình thảo luận về lãi suất.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hotXem thêm
  • Vốn hóa:$4.08KNgười nắm giữ:3
    2.10%
  • Vốn hóa:$3.63KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.58KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.65KNgười nắm giữ:2
    0.04%
  • Vốn hóa:$3.65KNgười nắm giữ:2
    0.00%
  • Ghim