# Trí tuệ nhân tạo siêu phàm có thể trở thành thảm họa — Vitalik Buterin
Nhân loại chưa đủ tốt trong việc đồng thuận các giá trị toàn cầu để đảm bảo rằng trí tuệ nhân tạo siêu thông minh sẽ hoạt động vì lợi ích của tất cả mọi người. Tuyên bố này được đồng sáng lập Ethereum Vitalik Buterin đưa ra.
Ông đã bình luận về bài viết của nghệ sĩ 3D có biệt danh là Utah teapot.
AI alignment thực sự là gì? Mọi người luôn hỏi "căn cứ vào cái gì" và không ai có câu trả lời khác ngoài "giá trị con người". Giá trị con người nhất quán và tự nhất quán không tồn tại. Tôi vẫn không hiểu điều này. Chúng ta đang nghiên cứu cái gì? Thật nực cười khi điều này đang trở thành một…
— Ấm trà Utah 🫖 (@SkyeSharkie) Ngày 24 tháng 8, 2025
«Khái niệm AI alignment có thể tồn tại như thế nào? Tôi luôn hỏi: “sự đồng nhất với cái gì?”. Không ai bao giờ trả lời gì khác ngoài “những giá trị của con người”. Nhưng không có những giá trị con người toàn diện, không mâu thuẫn. Tôi vẫn không hiểu. Chúng ta đang nghiên cứu cái gì? Thật vô lý khi điều này trở thành một ngành công nghiệp đang phát triển. Công việc giả tạo», — ông ấy viết.
Buterin nhấn mạnh rằng trên thế giới có nhiều điều mâu thuẫn với các nguyên tắc đạo đức. Ông đã đưa ra ví dụ về việc giết người hoặc giam giữ những người vô tội.
«[…] Chúng tôi vẫn chưa đủ giỏi trong việc đồng thuận để đảm bảo rằng một trí tuệ nhân tạo siêu thông minh đơn lẻ sẽ tránh được điều này», — nhà phát triển nói thêm.
Kettle Utah đã lưu ý rằng sự phát triển của trí tuệ nhân tạo đồng thuận đang tiến tới việc hạn chế quyền truy cập công khai vào sự phát triển. Trong khi đó, các công ty lớn bán các phiên bản hệ thống AI của họ, điều này góp phần vào các hiện tượng tiêu cực và trở thành công cụ của chiến tranh.
«Tôi rất lo ngại rằng việc tập trung quyền truy cập vào công nghệ AI cho phép áp đặt những gì thực sự không phải là vấn đề an ninh — chẳng hạn như các cuộc thảo luận xung quanh “cơn tâm thần” từ LLM. Do đó, có nguy cơ gây hại cho các nền văn hóa độc đáo hoặc biên giới và các giá trị của họ», — người dùng đã lưu ý.
Buterin chia sẻ nhiều trong số những mối lo ngại này.
«Tôi nghĩ rằng những rủi ro lớn nhất sẽ đến từ quân đội và các tổ chức khác, có quyền lực lớn cho phép họ thoát khỏi các quy tắc an ninh, mà đối với tất cả những người khác là mặc định», — đồng sáng lập Ethereum cho biết.
Chiếc ấm trà Utah được đưa ra làm ví dụ bởi startup AI Anthropic. Họ phát triển các phiên bản thay thế của các mô hình "dân sự" và cung cấp cho chính phủ. Chúng có thể được sử dụng cho các hoạt động quân sự hoặc tình báo.
Buterin nhấn mạnh rằng xác suất kịch bản thảm khốc cho nhân loại do AI tăng lên trong trường hợp chỉ có một trí tuệ nhân tạo siêu thông minh, có ý chí riêng và khả năng hành động như một chủ thể.
Nếu môi trường mang tính đa dạng, không có hệ thống nào có thể kiểm soát hoàn toàn tình hình. Tuy nhiên, để tạo ra điều đó, chỉ có các cơ chế thị trường là không đủ. Cần có những nỗ lực có chủ đích, bao gồm cả những thay đổi về luật lệ và các động lực mà các tập đoàn lớn sẽ không thích.
Nhắc lại, vào năm 2022, Bộ trưởng Công nghệ Thông tin Ấn Độ Rajiv Chandrasekhar đã kêu gọi phát triển các tiêu chuẩn toàn cầu đảm bảo an toàn cho con người khi sử dụng AI.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Siêu trí tuệ AI có thể trở thành thảm họa — Vitalik Buterin
Nhân loại chưa đủ tốt trong việc đồng thuận các giá trị toàn cầu để đảm bảo rằng trí tuệ nhân tạo siêu thông minh sẽ hoạt động vì lợi ích của tất cả mọi người. Tuyên bố này được đồng sáng lập Ethereum Vitalik Buterin đưa ra.
Ông đã bình luận về bài viết của nghệ sĩ 3D có biệt danh là Utah teapot.
Buterin nhấn mạnh rằng trên thế giới có nhiều điều mâu thuẫn với các nguyên tắc đạo đức. Ông đã đưa ra ví dụ về việc giết người hoặc giam giữ những người vô tội.
Kettle Utah đã lưu ý rằng sự phát triển của trí tuệ nhân tạo đồng thuận đang tiến tới việc hạn chế quyền truy cập công khai vào sự phát triển. Trong khi đó, các công ty lớn bán các phiên bản hệ thống AI của họ, điều này góp phần vào các hiện tượng tiêu cực và trở thành công cụ của chiến tranh.
Buterin chia sẻ nhiều trong số những mối lo ngại này.
Chiếc ấm trà Utah được đưa ra làm ví dụ bởi startup AI Anthropic. Họ phát triển các phiên bản thay thế của các mô hình "dân sự" và cung cấp cho chính phủ. Chúng có thể được sử dụng cho các hoạt động quân sự hoặc tình báo.
Buterin nhấn mạnh rằng xác suất kịch bản thảm khốc cho nhân loại do AI tăng lên trong trường hợp chỉ có một trí tuệ nhân tạo siêu thông minh, có ý chí riêng và khả năng hành động như một chủ thể.
Nếu môi trường mang tính đa dạng, không có hệ thống nào có thể kiểm soát hoàn toàn tình hình. Tuy nhiên, để tạo ra điều đó, chỉ có các cơ chế thị trường là không đủ. Cần có những nỗ lực có chủ đích, bao gồm cả những thay đổi về luật lệ và các động lực mà các tập đoàn lớn sẽ không thích.
Nhắc lại, vào năm 2022, Bộ trưởng Công nghệ Thông tin Ấn Độ Rajiv Chandrasekhar đã kêu gọi phát triển các tiêu chuẩn toàn cầu đảm bảo an toàn cho con người khi sử dụng AI.