ยุคของบอทเน็ตที่สามารถตรวจจับได้ง่ายกำลังจะสิ้นสุดลง รายงานฉบับใหม่ที่เผยแพร่ใน Science เมื่อวันพฤหัสบดี ในการศึกษานี้ นักวิจัยเตือนว่า แคมเปญข้อมูลเท็จกำลังเปลี่ยนไปสู่ฝูง AI อัตโนมัติที่สามารถเลียนแบบพฤติกรรมมนุษย์ ปรับตัวได้แบบเรียลไทม์ และต้องการการควบคุมดูแลจากมนุษยชนน้อยลง ซึ่งทำให้ความพยายามในการตรวจจับและหยุดยั้งเป็นเรื่องซับซ้อนมากขึ้น เขียนโดยกลุ่มนักวิจัย รวมถึงผู้จากมหาวิทยาลัยอ็อกซ์ฟอร์ด เคมบริดจ์ UC เบิร์กลีย์ NYU และ Max Planck Institute เอกสารนี้อธิบายสภาพแวดล้อมดิจิทัลที่การบิดเบือนข้อมูลกลายเป็นเรื่องยากที่จะระบุ แทนที่จะเป็นช่วงเวลาสั้นๆ ที่เชื่อมโยงกับการเลือกตั้งหรือการเมือง แคมเปญ AI เหล่านี้สามารถรักษาเรื่องราวไว้ได้นานขึ้น “ในมือของรัฐบาล เครื่องมือเหล่านี้อาจใช้เพื่อปราบปรามการคัดค้านหรือขยายเสียงของผู้ดำรงตำแหน่ง” นักวิจัยเขียน “ดังนั้น การนำ AI ป้องกันมาใช้จึงควรพิจารณาเฉพาะเมื่ออยู่ภายใต้กรอบการกำกับดูแลที่เข้มงวด โปร่งใส และรับผิดชอบตามระบอบประชาธิปไตย”
ฝูงคือกลุ่มของเอเจนต์ AI อัตโนมัติที่ทำงานร่วมกันเพื่อแก้ปัญหาหรือบรรลุเป้าหมายได้อย่างมีประสิทธิภาพมากกว่าระบบเดียว นักวิจัยกล่าวว่า ฝูง AI สร้างบนจุดอ่อนในแพลตฟอร์มโซเชียลมีเดียที่ผู้ใช้มักจะถูกแยกออกจากมุมมองที่ตรงกันข้าม “ข่าวปลอมได้รับการพิสูจน์ว่าสามารถแพร่กระจายได้เร็วและกว้างกว่าข่าวจริง ทำให้ความเป็นจริงที่แตกแยกและการลดทอนฐานข้อมูลข้อเท็จจริงร่วมกันลึกซึ้งขึ้น” พวกเขาเขียน “หลักฐานล่าสุดเชื่อมโยงการคัดเลือกเนื้อหาที่ปรับให้เหมาะสมกับการมีส่วนร่วมกับการแบ่งขั้วทางความคิด โดยอัลกอริทึมของแพลตฟอร์มจะขยายเนื้อหาที่เป็นการแบ่งแยก แม้จะเป็นการเสียความพึงพอใจของผู้ใช้ก็ตาม ซึ่งยิ่งทำให้สังคมสาธารณะเสื่อมโทรมลง” การเปลี่ยนแปลงนี้เห็นได้ชัดบนแพลตฟอร์มหลักแล้ว ตามคำกล่าวของ Sean Ren ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัย Southern California และ CEO ของ Sahara AI ซึ่งกล่าวว่า บัญชีที่ขับเคลื่อนด้วย AI ยากที่จะต่างจากผู้ใช้ทั่วไปมากขึ้นเรื่อยๆ “ผมคิดว่าการตรวจสอบตัวตน KYC ที่เข้มงวดยิ่งขึ้น หรือการยืนยันตัวตนของบัญชี จะช่วยได้มากในที่นี่” Ren กล่าวกับ Decrypt “ถ้าสร้างบัญชีใหม่ได้ยากขึ้นและตรวจสอบสแปมเมอร์ได้ง่ายขึ้น ก็จะทำให้ยากขึ้นสำหรับตัวแทนที่จะใช้บัญชีจำนวนมากเพื่อการบิดเบือนร่วมกัน”
แคมเปญอิทธิพลในอดีตพึ่งพาขนาดเป็นหลักมากกว่าความละเอียดอ่อน โดยมีบัญชีหลายพันบัญชีโพสต์ข้อความเดียวกันพร้อมกัน ซึ่งทำให้การตรวจจับง่ายกว่า ในทางตรงกันข้าม การศึกษากล่าวว่า ฝูง AI แสดงให้เห็นถึง “ความเป็นอิสระ การประสานงาน และขนาดที่ไม่เคยมีมาก่อน” Ren กล่าวว่าการกลั่นกรองเนื้อหาเพียงอย่างเดียวไม่น่าจะหยุดระบบเหล่านี้ได้ ปัญหาอยู่ที่วิธีที่แพลตฟอร์มจัดการตัวตนในระดับใหญ่ เขากล่าวว่า การตรวจสอบตัวตนที่เข้มงวดยิ่งขึ้นและข้อจำกัดในการสร้างบัญชี อาจทำให้การตรวจจับพฤติกรรมร่วมกันง่ายขึ้น แม้โพสต์แต่ละรายการจะดูเหมือนมนุษย์ก็ตาม “ถ้าเอเจนต์สามารถใช้บัญชีไม่กี่บัญชีในการโพสต์เนื้อหา ก็จะง่ายต่อการตรวจจับการใช้งานที่น่าสงสัยและแบนบัญชีเหล่านั้น” เขากล่าว ไม่มีวิธีแก้ปัญหาแบบง่าย นักวิจัยสรุปว่า ไม่มีวิธีแก้ปัญหาเดียวที่สมบูรณ์แบบ โดยมีตัวเลือกที่เป็นไปได้รวมถึงการตรวจจับการประสานงานที่ผิดปกติทางสถิติและความโปร่งใสที่มากขึ้นเกี่ยวกับกิจกรรมอัตโนมัติ แต่กล่าวว่า มาตรการทางเทคนิคเพียงอย่างเดียวไม่น่าจะเพียงพอ ตามคำกล่าวของ Ren ผลประโยชน์ทางการเงินก็ยังคงเป็นแรงขับเคลื่อนสำคัญของการโจมตีแบบบิดเบือนร่วมกัน แม้แพลตฟอร์มจะนำมาตรการเทคนิคใหม่ๆ เข้ามาก็ตาม “ฝูงเอเจนต์เหล่านี้มักจะถูกควบคุมโดยทีมงานหรือผู้ขายที่ได้รับแรงจูงใจทางการเงินจากฝ่ายภายนอกหรือบริษัท เพื่อทำการบิดเบือนร่วมกัน” เขากล่าว “แพลตฟอร์มควรบังคับใช้มาตรการ KYC และการตรวจจับสแปมที่เข้มงวดยิ่งขึ้น เพื่อระบุและกรองบัญชีที่ถูกบิดเบือนโดยเอเจนต์”