Thời kỳ của các botnet dễ dàng phát hiện sắp kết thúc, theo một báo cáo mới được công bố trên Science vào thứ Năm. Trong nghiên cứu, các nhà nghiên cứu cảnh báo rằng các chiến dịch sai lệch thông tin đang chuyển hướng sang các đàn AI tự động có thể bắt chước hành vi con người, thích nghi trong thời gian thực và ít cần sự giám sát của con người, làm phức tạp nỗ lực phát hiện và ngăn chặn chúng. Bài viết do một nhóm các nhà nghiên cứu, bao gồm những người từ Oxford, Cambridge, UC Berkeley, NYU và Viện Max Planck, viết mô tả một môi trường kỹ thuật số trong đó việc thao túng trở nên khó nhận biết hơn. Thay vì các đợt ngắn liên quan đến bầu cử hoặc chính trị, các chiến dịch AI này có thể duy trì một câu chuyện trong thời gian dài hơn. “Trong tay chính phủ, các công cụ như vậy có thể đàn áp bất đồng hoặc khuếch đại các người giữ vị trí,” các nhà nghiên cứu viết. “Do đó, việc triển khai AI phòng thủ chỉ có thể xem xét nếu được quản lý bởi các khuôn khổ minh bạch, nghiêm ngặt và có trách nhiệm dân chủ.”
Một đàn là một nhóm các tác nhân AI tự động hoạt động cùng nhau để giải quyết vấn đề hoặc hoàn thành mục tiêu hiệu quả hơn so với một hệ thống đơn lẻ. Các nhà nghiên cứu cho biết các đàn AI dựa trên những điểm yếu hiện có trong các nền tảng mạng xã hội, nơi người dùng thường được cách ly khỏi các quan điểm đối lập. “Thông tin sai lệch đã được chứng minh là lan truyền nhanh hơn và rộng hơn so với thông tin đúng, làm sâu sắc thêm các thực tại phân mảnh và xói mòn các nền tảng thực tế chung,” họ viết. “Bằng chứng gần đây liên kết việc tối ưu hóa tương tác với sự phân cực, với các thuật toán nền tảng khuếch đại nội dung chia rẽ ngay cả khi gây thiệt hại cho sự hài lòng của người dùng, làm suy giảm thêm không gian công cộng.” Sự chuyển đổi này đã rõ ràng trên các nền tảng lớn, theo Sean Ren, giáo sư khoa học máy tính tại Đại học Nam California và CEO của Sahara AI, người cho biết các tài khoản do AI điều khiển ngày càng khó phân biệt với người dùng bình thường. “Tôi nghĩ rằng việc kiểm tra danh tính KYC chặt chẽ hơn, hoặc xác thực danh tính tài khoản, sẽ giúp rất nhiều ở đây,” Ren nói với Decrypt. “Nếu việc tạo tài khoản mới khó hơn và dễ dàng hơn để giám sát các spammer, thì các tác nhân sẽ gặp khó khăn hơn trong việc sử dụng số lượng lớn tài khoản để thao túng phối hợp.”
Các chiến dịch ảnh hưởng trước đây chủ yếu dựa vào quy mô hơn là sự tinh vi, với hàng nghìn tài khoản đăng cùng một tin nhắn đồng thời, điều này làm việc phát hiện dễ dàng hơn. Ngược lại, nghiên cứu cho biết, các đàn AI thể hiện “tính tự chủ, phối hợp và quy mô chưa từng có.” Ren nói rằng việc kiểm duyệt nội dung đơn thuần khó có thể ngăn chặn các hệ thống này. Vấn đề, ông nói, là cách các nền tảng quản lý danh tính ở quy mô lớn. Các biện pháp kiểm tra danh tính mạnh hơn và giới hạn việc tạo tài khoản, ông nói, có thể giúp phát hiện hành vi phối hợp dễ dàng hơn, ngay cả khi các bài đăng riêng lẻ trông có vẻ như của con người. “Nếu tác nhân chỉ có thể sử dụng một số ít tài khoản để đăng nội dung, thì việc phát hiện các hành vi đáng ngờ và cấm các tài khoản đó sẽ dễ dàng hơn nhiều,” ông nói. Không có giải pháp đơn giản Các nhà nghiên cứu kết luận rằng không có một giải pháp duy nhất cho vấn đề này, với các lựa chọn tiềm năng bao gồm cải thiện khả năng phát hiện phối hợp bất thường về mặt thống kê và tăng cường minh bạch về hoạt động tự động, nhưng cho rằng các biện pháp kỹ thuật đơn thuần khó có thể đủ. Theo Ren, các động lực tài chính cũng vẫn là yếu tố thúc đẩy các cuộc tấn công thao túng phối hợp, ngay cả khi các nền tảng giới thiệu các biện pháp bảo vệ kỹ thuật mới. “Các đàn tác nhân này thường do các nhóm hoặc nhà cung cấp kiểm soát, họ nhận các phần thưởng tài chính từ các bên hoặc công ty bên ngoài để thực hiện thao túng phối hợp,” ông nói. “Các nền tảng nên thực thi các cơ chế KYC và phát hiện spam mạnh mẽ hơn để xác định và lọc các tài khoản do tác nhân thao túng.”