OpenAI Công bố Bản thiết kế An toàn cho Trẻ em để giải quyết việc bị khai thác thông qua AI

Decrypt

Tóm tắt

  • OpenAI đã công bố “Child Safety Blueprint” (Kế hoạch an toàn cho trẻ em), nhằm giải quyết tình trạng lạm dụng tình dục trẻ em qua AI.
  • Khung này tập trung vào cải cách pháp luật, tăng cường phối hợp báo cáo, và các biện pháp “hàng rào” (guardrails) được tích hợp sẵn trong các hệ thống AI.
  • Đề xuất được phát triển với ý kiến đóng góp từ các nhóm bảo vệ trẻ em, các tổng chưởng lý và các tổ chức phi lợi nhuận.

Nhằm giải quyết sự gia tăng của tình trạng lạm dụng tình dục trẻ em qua AI, vào hôm thứ Tư, OpenAI đã công bố một bản kế hoạch chính sách phác thảo các biện pháp an toàn mới mà ngành có thể thực hiện để giúp hạn chế việc sử dụng AI trong việc tạo ra tài liệu lạm dụng tình dục trẻ em. Trong khuôn khổ này, OpenAI liệt kê các biện pháp pháp lý, vận hành và kỹ thuật nhằm củng cố các biện pháp bảo vệ chống lại hành vi lạm dụng có hỗ trợ bởi AI và cải thiện sự phối hợp giữa các công ty công nghệ và các nhà điều tra. “Lạm dụng tình dục trẻ em là một trong những thách thức cấp bách nhất của kỷ nguyên số,” công ty viết. “AI đang nhanh chóng thay đổi cả việc những tác hại này xuất hiện như thế nào trong toàn ngành và cách chúng có thể được giải quyết ở quy mô lớn.”

OpenAI cho biết đề xuất này tích hợp phản hồi từ các tổ chức làm việc trong lĩnh vực bảo vệ trẻ em và an toàn trực tuyến, bao gồm National Center for Missing and Exploited Children và Attorney General Alliance cùng lực lượng đặc nhiệm AI của tổ chức này. “AI tạo sinh đang thúc đẩy tội phạm lạm dụng tình dục trẻ em trên mạng theo những cách hết sức đáng lo ngại—hạ thấp rào cản, mở rộng quy mô và cho phép các hình thức gây hại mới,” Chủ tịch & CEO của National Center for Missing & Exploited Children, Michelle DeLaune, cho biết trong một tuyên bố. “Nhưng đồng thời, National Center for Missing & Exploited Children cũng được khích lệ khi thấy các công ty như OpenAI suy ngẫm về cách thiết kế các công cụ này một cách có trách nhiệm hơn, với các biện pháp bảo vệ được tích hợp từ đầu.”  OpenAI cho biết khuôn khổ này kết hợp các tiêu chuẩn pháp lý, hệ thống báo cáo trong ngành và các biện pháp bảo vệ kỹ thuật trong các mô hình AI. Công ty cho biết các biện pháp này nhằm giúp xác định sớm các rủi ro bị khai thác và cải thiện trách nhiệm giải trình trên các nền tảng trực tuyến.

Bản kế hoạch nêu ra các lĩnh vực cần hành động, bao gồm cập nhật luật để giải quyết tài liệu lạm dụng tình dục trẻ em do AI tạo ra hoặc bị chỉnh sửa, cải thiện cách các nhà cung cấp trực tuyến báo cáo các tín hiệu lạm dụng và phối hợp với các nhà điều tra, đồng thời xây dựng các biện pháp bảo vệ trong các hệ thống AI được thiết kế để ngăn chặn việc lạm dụng. “Không một biện pháp can thiệp đơn lẻ nào có thể giải quyết thách thức này một mình,” công ty viết. “Khuôn khổ này kết hợp các cách tiếp cận pháp lý, vận hành và kỹ thuật để nhận diện rủi ro tốt hơn, đẩy nhanh phản hồi và hỗ trợ trách nhiệm giải trình, đồng thời đảm bảo rằng các cơ quan thực thi vẫn mạnh mẽ khi công nghệ phát triển.” Bản kế hoạch được đưa ra trong bối cảnh các advocate về an toàn cho trẻ em đã nêu lo ngại rằng các hệ thống AI tạo sinh có khả năng tạo ra hình ảnh chân thực có thể được dùng để tạo ra các hình ảnh bị thao túng hoặc mô phỏng về trẻ vị thành niên. Vào tháng Hai, UNICEF đã kêu gọi các chính phủ trên thế giới ban hành luật hình sự hóa tài liệu lạm dụng tình dục trẻ em do AI tạo ra. Vào tháng Một, Ủy ban Châu Âu đã khởi động một cuộc điều tra chính thức về việc liệu X, trước đây được biết đến là Twitter, có vi phạm các quy tắc kỹ thuật số của EU hay không bằng cách không ngăn mô hình AI bản địa của nền tảng, Grok, tạo ra nội dung bất hợp pháp, trong khi các cơ quan quản lý tại Vương quốc Anh và Australia cũng đã mở các cuộc điều tra. Nhấn mạnh rằng chỉ riêng luật pháp sẽ không thể ngăn chặn làn sóng tài liệu lạm dụng do AI tạo ra, OpenAI cho biết sẽ cần các tiêu chuẩn mạnh mẽ hơn của ngành khi các hệ thống AI trở nên có năng lực hơn. “Bằng cách ngắt sớm các nỗ lực khai thác, nâng cao chất lượng các tín hiệu gửi tới cơ quan thực thi pháp luật, và tăng cường trách nhiệm giải trình trên toàn bộ hệ sinh thái, khuôn khổ này hướng tới việc ngăn chặn tác hại trước khi nó xảy ra và giúp đảm bảo sự bảo vệ nhanh hơn cho trẻ em khi rủi ro xuất hiện,” OpenAI cho biết.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận