Tội phạm mạng đã trải qua một cuộc chuyển đổi căn bản. Những gì trước đây đòi hỏi kỹ năng kỹ thuật cao và thao tác thủ công giờ đây có thể được thực hiện với sự trợ giúp của trí tuệ nhân tạo, làm cho các cuộc tấn công trở nên nhanh hơn, rẻ hơn và khó phát hiện hơn nhiều. Các hacker sử dụng AI để tạo ra các kế hoạch lừa đảo nhắm vào từ quỹ hưu trí đến bí mật doanh nghiệp với độ chính xác đáng kinh ngạc.
Dữ liệu mới nhất từ Brian Singer, nhà nghiên cứu Tiến sĩ tại Carnegie Mellon, người nghiên cứu về việc sử dụng mô hình ngôn ngữ lớn trong các cuộc tấn công mạng, cho thấy rằng từ 50 đến 75 phần trăm spam và tin nhắn lừa đảo trên toàn thế giới hiện nay xuất phát từ hệ thống AI. Con số này phản ánh một sự thay đổi căn bản trong cách thức hoạt động của tội phạm mạng.
Trí tuệ nhân tạo tạo ra trải nghiệm lừa đảo cực kỳ thuyết phục
Công nghệ giống như nền tảng số dùng để tùy chỉnh quảng cáo nay được các hacker sử dụng để thu thập thông tin cá nhân và thực hiện các vụ lừa đảo cá nhân hóa. Hệ thống AI được huấn luyện bằng dữ liệu liên lạc của doanh nghiệp có thể tạo ra hàng nghìn tin nhắn nghe tự nhiên và phù hợp phong cách của tổ chức mục tiêu. Chúng bắt chước cách các giám đốc viết, đề cập các tin tức mới nhất từ các hồ sơ công khai, và loại bỏ các lỗi ngữ pháp trước đây từng tiết lộ nỗ lực lừa đảo của các thủ phạm quốc tế.
Alice Marwick, người đứng đầu nghiên cứu tại Data & Society, một tổ chức nghiên cứu công nghệ độc lập, giải thích sự thay đổi quan trọng nhất: “Thay đổi thực sự là về phạm vi và quy mô. Lừa đảo lớn hơn, nhắm mục tiêu chính xác hơn, thuyết phục hơn.”
Các hacker cũng tận dụng công nghệ deepfake để tạo video và âm thanh giả mạo các lãnh đạo doanh nghiệp. Họ sử dụng cùng một danh tính giả để nhắm mục tiêu nhiều người cùng lúc, tạo ra cái mà John Hultquist, trưởng nhóm phân tích tại Threat Intelligence Group của Google, gọi là “độ tin cậy trên quy mô lớn.”
Tội phạm mạng phát triển thành mô hình kinh doanh có cấu trúc
Cảnh quan lớn nhất tạo điều kiện cho sự thay đổi này là sự giảm thiểu rào cản gia nhập thế giới tội phạm mạng. Thị trường ngầm hiện nay bán hoặc cho thuê các công cụ AI cho tội phạm mạng với giá chỉ từ $90 mỗi tháng. Các dịch vụ này có tên như WormGPT, FraudGPT, và DarkGPT, đi kèm các mức giá khác nhau và hỗ trợ khách hàng chuyên nghiệp.
Nicolas Christin, người đứng đầu bộ phận phần mềm và hạ tầng tại Carnegie Mellon, mô tả hệ sinh thái này chi tiết: “Các nhà phát triển bán đăng ký truy cập nền tảng tấn công với giá theo cấp độ và hỗ trợ khách hàng.” Một số dịch vụ còn cung cấp cả tài liệu đào tạo về kỹ thuật hack.
Margaret Cunningham, phó chủ tịch về an ninh và chiến lược AI tại Darktrace, một công ty an ninh mạng, nói rằng rào cản đã trở nên rất thấp: “Bạn không cần biết cách lập trình, chỉ cần biết nơi để tìm các công cụ đó.” Phát triển mới gọi là “vibe-coding” cho phép các tội phạm tiềm năng sử dụng AI để tạo ra các chương trình độc hại của riêng họ mà không cần mua từ nguồn ngầm.
Hoạt động tội phạm mạng đã vận hành theo mô hình kinh doanh trong nhiều năm. Các cuộc tấn công ransomware điển hình liên quan đến các vai trò chuyên biệt: các nhà môi giới truy cập hack vào mạng của công ty và bán quyền truy cập, các nhóm xâm nhập di chuyển qua hệ thống để trộm dữ liệu, và các nhà cung cấp dịch vụ ransomware phát hành phần mềm độc hại, xử lý đàm phán, và chia sẻ lợi nhuận.
AI nâng cao hiệu quả và lợi nhuận của hoạt động tội phạm
Trí tuệ nhân tạo đã nâng cao tốc độ, quy mô và khả năng tiếp cận của các hệ thống này. Những công việc trước đây đòi hỏi kiến thức kỹ thuật sâu sắc giờ đây có thể tự động hóa. Điều này cho phép các nhóm hoạt động với ít nhân sự hơn, rủi ro thấp hơn và lợi nhuận cao hơn.
Christin so sánh tình hình này: “Hãy nghĩ như giai đoạn công nghiệp hóa tiếp theo. AI nâng cao năng suất mà không cần nhiều nhân công hơn.” Các hacker cũng ngày càng thành thạo trong việc chọn mục tiêu. Họ dùng AI để kiểm tra mạng xã hội và xác định các cá nhân đang gặp khó khăn lớn trong cuộc sống—ly hôn, mất người thân, mất việc—những tình huống khiến họ dễ bị lừa đảo tình cảm, các kế hoạch đầu tư giả mạo hoặc các công việc làm giả.
Liệu AI có thể thực hiện các cuộc tấn công hoàn toàn tự động?
Một câu hỏi then chốt đặt ra: liệu AI có thể phát động các cuộc tấn công mạng hoàn toàn mà không cần sự can thiệp của con người? Câu trả lời hiện tại là chưa. Các chuyên gia so sánh tình hình này với việc phát triển xe tự hành hoàn toàn. 5 phần trăm cuối cùng—phần cho phép xe tự lái mọi lúc mọi nơi—vẫn chưa đạt được.
Tuy nhiên, các nhà nghiên cứu đang thử nghiệm khả năng hack AI trong môi trường phòng thí nghiệm. Một nhóm tại Carnegie Mellon, được hỗ trợ bởi Anthropic, đã thành công trong việc mô phỏng vi phạm dữ liệu Equifax nổi tiếng bằng AI vào đầu năm nay. Điều này được xem là một “bước tiến lớn” bởi các chuyên gia.
Phòng thủ chống tội phạm mạng được củng cố bằng AI
Ở chiều ngược lại, các công ty AI cam kết sử dụng công nghệ tương tự để tăng cường phòng thủ số. Anthropic và OpenAI đang phát triển hệ thống AI có thể liên tục kiểm tra mã phần mềm để tìm các lỗ hổng có thể bị tội phạm khai thác. Con người vẫn phải phê duyệt các sửa chữa.
Các chương trình AI mới nhất do các nhà nghiên cứu Stanford phát triển cho thấy hiệu suất vượt trội so với một số kiểm tra viên con người trong việc phát hiện các vấn đề an ninh trong mạng. Mặc dù AI không thể ngăn chặn tất cả các vi phạm, các tổ chức cần tập trung xây dựng mạng lưới vững chắc để duy trì hoạt động trong suốt các cuộc tấn công mạng.
Cảnh quan tội phạm mạng đang tiến hóa này cho thấy cuộc chiến giữa những người dùng AI nhằm mục đích xấu và phòng thủ số vẫn còn trong giai đoạn đầu. Nhận thức và chuẩn bị vẫn là tuyến phòng thủ đầu tiên và mạnh nhất.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Trí tuệ nhân tạo đang thay đổi cảnh quan tội phạm mạng: Từ sở thích của hacker đến ngành công nghiệp có cấu trúc
Tội phạm mạng đã trải qua một cuộc chuyển đổi căn bản. Những gì trước đây đòi hỏi kỹ năng kỹ thuật cao và thao tác thủ công giờ đây có thể được thực hiện với sự trợ giúp của trí tuệ nhân tạo, làm cho các cuộc tấn công trở nên nhanh hơn, rẻ hơn và khó phát hiện hơn nhiều. Các hacker sử dụng AI để tạo ra các kế hoạch lừa đảo nhắm vào từ quỹ hưu trí đến bí mật doanh nghiệp với độ chính xác đáng kinh ngạc.
Dữ liệu mới nhất từ Brian Singer, nhà nghiên cứu Tiến sĩ tại Carnegie Mellon, người nghiên cứu về việc sử dụng mô hình ngôn ngữ lớn trong các cuộc tấn công mạng, cho thấy rằng từ 50 đến 75 phần trăm spam và tin nhắn lừa đảo trên toàn thế giới hiện nay xuất phát từ hệ thống AI. Con số này phản ánh một sự thay đổi căn bản trong cách thức hoạt động của tội phạm mạng.
Trí tuệ nhân tạo tạo ra trải nghiệm lừa đảo cực kỳ thuyết phục
Công nghệ giống như nền tảng số dùng để tùy chỉnh quảng cáo nay được các hacker sử dụng để thu thập thông tin cá nhân và thực hiện các vụ lừa đảo cá nhân hóa. Hệ thống AI được huấn luyện bằng dữ liệu liên lạc của doanh nghiệp có thể tạo ra hàng nghìn tin nhắn nghe tự nhiên và phù hợp phong cách của tổ chức mục tiêu. Chúng bắt chước cách các giám đốc viết, đề cập các tin tức mới nhất từ các hồ sơ công khai, và loại bỏ các lỗi ngữ pháp trước đây từng tiết lộ nỗ lực lừa đảo của các thủ phạm quốc tế.
Alice Marwick, người đứng đầu nghiên cứu tại Data & Society, một tổ chức nghiên cứu công nghệ độc lập, giải thích sự thay đổi quan trọng nhất: “Thay đổi thực sự là về phạm vi và quy mô. Lừa đảo lớn hơn, nhắm mục tiêu chính xác hơn, thuyết phục hơn.”
Các hacker cũng tận dụng công nghệ deepfake để tạo video và âm thanh giả mạo các lãnh đạo doanh nghiệp. Họ sử dụng cùng một danh tính giả để nhắm mục tiêu nhiều người cùng lúc, tạo ra cái mà John Hultquist, trưởng nhóm phân tích tại Threat Intelligence Group của Google, gọi là “độ tin cậy trên quy mô lớn.”
Tội phạm mạng phát triển thành mô hình kinh doanh có cấu trúc
Cảnh quan lớn nhất tạo điều kiện cho sự thay đổi này là sự giảm thiểu rào cản gia nhập thế giới tội phạm mạng. Thị trường ngầm hiện nay bán hoặc cho thuê các công cụ AI cho tội phạm mạng với giá chỉ từ $90 mỗi tháng. Các dịch vụ này có tên như WormGPT, FraudGPT, và DarkGPT, đi kèm các mức giá khác nhau và hỗ trợ khách hàng chuyên nghiệp.
Nicolas Christin, người đứng đầu bộ phận phần mềm và hạ tầng tại Carnegie Mellon, mô tả hệ sinh thái này chi tiết: “Các nhà phát triển bán đăng ký truy cập nền tảng tấn công với giá theo cấp độ và hỗ trợ khách hàng.” Một số dịch vụ còn cung cấp cả tài liệu đào tạo về kỹ thuật hack.
Margaret Cunningham, phó chủ tịch về an ninh và chiến lược AI tại Darktrace, một công ty an ninh mạng, nói rằng rào cản đã trở nên rất thấp: “Bạn không cần biết cách lập trình, chỉ cần biết nơi để tìm các công cụ đó.” Phát triển mới gọi là “vibe-coding” cho phép các tội phạm tiềm năng sử dụng AI để tạo ra các chương trình độc hại của riêng họ mà không cần mua từ nguồn ngầm.
Hoạt động tội phạm mạng đã vận hành theo mô hình kinh doanh trong nhiều năm. Các cuộc tấn công ransomware điển hình liên quan đến các vai trò chuyên biệt: các nhà môi giới truy cập hack vào mạng của công ty và bán quyền truy cập, các nhóm xâm nhập di chuyển qua hệ thống để trộm dữ liệu, và các nhà cung cấp dịch vụ ransomware phát hành phần mềm độc hại, xử lý đàm phán, và chia sẻ lợi nhuận.
AI nâng cao hiệu quả và lợi nhuận của hoạt động tội phạm
Trí tuệ nhân tạo đã nâng cao tốc độ, quy mô và khả năng tiếp cận của các hệ thống này. Những công việc trước đây đòi hỏi kiến thức kỹ thuật sâu sắc giờ đây có thể tự động hóa. Điều này cho phép các nhóm hoạt động với ít nhân sự hơn, rủi ro thấp hơn và lợi nhuận cao hơn.
Christin so sánh tình hình này: “Hãy nghĩ như giai đoạn công nghiệp hóa tiếp theo. AI nâng cao năng suất mà không cần nhiều nhân công hơn.” Các hacker cũng ngày càng thành thạo trong việc chọn mục tiêu. Họ dùng AI để kiểm tra mạng xã hội và xác định các cá nhân đang gặp khó khăn lớn trong cuộc sống—ly hôn, mất người thân, mất việc—những tình huống khiến họ dễ bị lừa đảo tình cảm, các kế hoạch đầu tư giả mạo hoặc các công việc làm giả.
Liệu AI có thể thực hiện các cuộc tấn công hoàn toàn tự động?
Một câu hỏi then chốt đặt ra: liệu AI có thể phát động các cuộc tấn công mạng hoàn toàn mà không cần sự can thiệp của con người? Câu trả lời hiện tại là chưa. Các chuyên gia so sánh tình hình này với việc phát triển xe tự hành hoàn toàn. 5 phần trăm cuối cùng—phần cho phép xe tự lái mọi lúc mọi nơi—vẫn chưa đạt được.
Tuy nhiên, các nhà nghiên cứu đang thử nghiệm khả năng hack AI trong môi trường phòng thí nghiệm. Một nhóm tại Carnegie Mellon, được hỗ trợ bởi Anthropic, đã thành công trong việc mô phỏng vi phạm dữ liệu Equifax nổi tiếng bằng AI vào đầu năm nay. Điều này được xem là một “bước tiến lớn” bởi các chuyên gia.
Phòng thủ chống tội phạm mạng được củng cố bằng AI
Ở chiều ngược lại, các công ty AI cam kết sử dụng công nghệ tương tự để tăng cường phòng thủ số. Anthropic và OpenAI đang phát triển hệ thống AI có thể liên tục kiểm tra mã phần mềm để tìm các lỗ hổng có thể bị tội phạm khai thác. Con người vẫn phải phê duyệt các sửa chữa.
Các chương trình AI mới nhất do các nhà nghiên cứu Stanford phát triển cho thấy hiệu suất vượt trội so với một số kiểm tra viên con người trong việc phát hiện các vấn đề an ninh trong mạng. Mặc dù AI không thể ngăn chặn tất cả các vi phạm, các tổ chức cần tập trung xây dựng mạng lưới vững chắc để duy trì hoạt động trong suốt các cuộc tấn công mạng.
Cảnh quan tội phạm mạng đang tiến hóa này cho thấy cuộc chiến giữa những người dùng AI nhằm mục đích xấu và phòng thủ số vẫn còn trong giai đoạn đầu. Nhận thức và chuẩn bị vẫn là tuyến phòng thủ đầu tiên và mạnh nhất.