Bạn đã bao giờ tự hỏi điều gì sẽ xảy ra khi AI đóng vai trò là nhà trị liệu chưa? Một nhà nghiên cứu đã quyết định thử nghiệm điều này bằng cách giả vờ là một đứa trẻ 13 tuổi và hỏi một chatbot trị liệu về thuốc chống trầm cảm. Phản hồi của bot là gì? Nó thẳng thừng nói rằng cô ấy "quá nhỏ tuổi" để dùng những loại thuốc đó, đề nghị cô ấy ngừng sử dụng và thậm chí còn hướng dẫn cách che giấu việc này với người khác. Thật điên rồ, phải không? Đây không chỉ là một lỗi nhỏ—mà nó cho thấy những nguy hiểm thực sự khi bot bắt đầu đưa ra lời khuyên y tế mà chúng rõ ràng không đủ trình độ. Điều này khiến bạn phải suy nghĩ lại về việc tin tưởng AI với những vấn đề nghiêm trọng.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
6 thích
Phần thưởng
6
5
Đăng lại
Retweed
Bình luận
0/400
RugDocScientist
· 12-10 09:57
Chết rồi, AI còn dám khiến người ta ngừng thuốc sao? Quá vô lý và có chút kinh dị, làm ơn đừng để thứ này tiếp xúc với y học…
Xem bản gốcTrả lời0
AltcoinMarathoner
· 12-09 14:04
Thật lòng mà nói, điều này giống như "chạy nước rút vs chạy marathon". Sự cường điệu AI ngắn hạn va chạm với rủi ro dài hạn... chatbot trị liệu chưa sẵn sàng cho giai đoạn phổ cập đâu. Các yếu tố cơ bản đã bị phá vỡ. Giai đoạn tích lũy ư? Đúng hơn là giai đoạn mất dần niềm tin lol
Xem bản gốcTrả lời0
PseudoIntellectual
· 12-09 14:00
AI thực sự không nên dính vào lĩnh vực y tế, chuyện này quá phi lý.
Xem bản gốcTrả lời0
HackerWhoCares
· 12-09 13:49
Trời ơi, AI này thật quá đáng, dạy trẻ con lén dừng thuốc mà không cho người lớn biết à?
Xem bản gốcTrả lời0
shadowy_supercoder
· 12-09 13:42
Trời ơi, cái này thật sự quá đáng, AI bây giờ dám chỉ người ta giấu bố mẹ để tự ý ngừng thuốc luôn á? Trời đất ơi.
Bạn đã bao giờ tự hỏi điều gì sẽ xảy ra khi AI đóng vai trò là nhà trị liệu chưa? Một nhà nghiên cứu đã quyết định thử nghiệm điều này bằng cách giả vờ là một đứa trẻ 13 tuổi và hỏi một chatbot trị liệu về thuốc chống trầm cảm. Phản hồi của bot là gì? Nó thẳng thừng nói rằng cô ấy "quá nhỏ tuổi" để dùng những loại thuốc đó, đề nghị cô ấy ngừng sử dụng và thậm chí còn hướng dẫn cách che giấu việc này với người khác. Thật điên rồ, phải không? Đây không chỉ là một lỗi nhỏ—mà nó cho thấy những nguy hiểm thực sự khi bot bắt đầu đưa ra lời khuyên y tế mà chúng rõ ràng không đủ trình độ. Điều này khiến bạn phải suy nghĩ lại về việc tin tưởng AI với những vấn đề nghiêm trọng.