โดย Dario Amodei นำทีมโดย Anthropic ซึ่งเป็นหนึ่งในบริษัท AI ที่มักถูกมองว่ามีความร่วมมือกับรัฐบาลสหรัฐอย่างแข็งขัน กลับกลายเป็นฝ่ายเผชิญหน้ากับกระทรวงกลาโหมสหรัฐฯ อย่างเปิดเผยเนื่องจากข้อจำกัดการใช้งานสองประการ
Amodei เน้นย้ำว่า บริษัทพร้อมสนับสนุนการใช้งานด้านการป้องกันประเทศราว 98% ถึง 99% แต่ยังคงยืนหยัดในจุดยืนไม่สนับสนุนเรื่อง “การเฝ้าระวังในประเทศในระดับใหญ่” และ “อาวุธอัตโนมัติเต็มรูปแบบ” เขาอธิบายว่านี่ไม่ใช่การปฏิเสธความมั่นคงของชาติ แต่เป็นการปกป้องค่านิยมประชาธิปไตยและจิตวิญญาณของรัฐธรรมนูญ
ความร่วมมืออย่างใกล้ชิดกับระบบป้องกันประเทศ แต่กลับวาดเส้นเขตแดนในสองจุด
ในสัมภาษณ์ Amodei เน้นว่า Anthropic เป็นหนึ่งในบริษัท AI ที่แรกที่ร่วมมืออย่างลึกซึ้งกับระบบความมั่นคงของสหรัฐฯ เขาเล่าว่า บริษัทเป็นรายแรกที่นำโมเดลไปใช้งานในสภาพแวดล้อมคลาวด์ลับเฉพาะ และสร้างโมเดลที่ปรับแต่งเฉพาะสำหรับงานด้านความมั่นคง ซึ่งปัจจุบันถูกนำไปใช้ในหน่วยข่าวกรองและกองทัพในด้านต่าง ๆ รวมถึงความปลอดภัยทางไซเบอร์และสนับสนุนการปฏิบัติการ
พูดอีกนัยหนึ่งคือ Anthropic ไม่ได้ปฏิเสธการใช้งานทางทหาร แต่กลับเป็นผู้มีส่วนร่วมอย่างแข็งขัน
อย่างไรก็ตาม บริษัทได้ประกาศจุดยืนชัดเจนในสองข้อที่ไม่สามารถประนีประนอมได้:
ข้อแรก คือ “การเฝ้าระวังในประเทศในระดับใหญ่” Amodei กังวลว่า AI จะทำให้รัฐบาลสามารถวิเคราะห์ข้อมูลจำนวนมหาศาลจากเอกชน เช่น ข้อมูลตำแหน่งที่ตั้ง แนวโน้มทางการเมือง และพฤติกรรมส่วนตัว ได้ในระดับที่ไม่เคยมีมาก่อน ซึ่งแม้ในกรอบกฎหมายปัจจุบันอาจไม่ผิดกฎหมาย แต่การพัฒนาเทคโนโลยี AI อย่างรวดเร็วทำให้ความสามารถในการเฝ้าระวังเกินกว่าจุดประสงค์ของกฎหมายเดิมไปมากแล้ว
ข้อสอง คือ “อาวุธอัตโนมัติเต็มรูปแบบ” ซึ่งหมายถึง ระบบอาวุธที่สามารถตัดสินใจยิงโดยไม่มีการแทรกแซงของมนุษย์ Amodei ชี้ว่า ระบบ AI ยังมีปัญหาเรื่องความไม่สามารถทำนายล่วงหน้าและความน่าเชื่อถือ หากปล่อยให้เครื่องจักรเป็นผู้ตัดสินใจเอง อาจนำไปสู่การตัดสินผิดพลาด การโจมตีผิด การทำร้ายพลเรือน หรือแม้แต่การสับสนระหว่างศัตรูและฝ่ายเดียวกัน
เขาย้ำว่านี่ไม่ใช่การใช้ “อาวุธกึ่งอัตโนมัติ” ที่ใช้อยู่ในสนามรบปัจจุบัน แต่เป็นระบบอาวุธที่ไม่มีการควบคุมจากมนุษย์เลย
สามวันสุดท้ายและข้อพิพาทเรื่อง “ความเสี่ยงในซัพพลายเชน”
ตามคำกล่าวของ Amodei กระทรวงกลาโหมสหรัฐฯ เคยเรียกร้องให้ Anthropic ยอมรับเงื่อนไขภายในสามวัน หากไม่ทำเช่นนั้น จะถูกจัดเป็น “ความเสี่ยงในซัพพลายเชน” ซึ่งโดยปกติคำนี้ใช้กับบริษัทคู่แข่งจากต่างประเทศ เช่น รัสเซียหรือจีน ซึ่งแทบไม่เคยใช้กับบริษัทในสหรัฐฯ เลย
ที่น่าขันคือ การสื่อสารในเรื่องนี้ส่วนใหญ่มาจากโพสต์บนโซเชียลมีเดีย Amodei ระบุว่า บริษัทยังไม่ได้รับเอกสารทางกฎหมายอย่างเป็นทางการ แต่เห็นแต่ประกาศของประธานาธิบดีและเจ้าหน้าที่กระทรวงกลาโหมบน X (เดิม Twitter)
ประธานาธิบดี Donald Trump ยังออกมาวิพากษ์วิจารณ์ Anthropic ว่า “เห็นแก่ตัว” และกล่าวว่าการกระทำเช่นนี้เป็นอันตรายต่อกองทัพและความมั่นคงของชาติ
Amodei ตอบโต้ว่า บริษัทพร้อมสนับสนุนการเปลี่ยนผ่านไปยังผู้ให้บริการรายอื่นในกรณีที่ถูกคว่ำบาตร เพื่อป้องกันไม่ให้กองทัพต้องหยุดชะงักเทคโนโลยีเป็นเวลา 6 ถึง 12 เดือน
แก่นแท้ของปัญหาคืออะไร?
Amodei เชื่อว่าปัญหาหลักไม่ใช่เรื่อง “ใครรักชาติมากกว่า” แต่เป็นเรื่องความพร้อมของเทคโนโลยีและความรับผิดชอบ
เขาชี้ว่า AI ยังมีความไม่สามารถทำนายล่วงหน้าได้ แม้ผลการทำงานโดยรวมดี แต่ในช่วงวิกฤติหากเกิดความผิดพลาด 1% ก็อาจกลายเป็นหายนะสำหรับการปฏิบัติการทางทหาร การโจมตีผิด การสับสนระหว่างศัตรูและฝ่ายเดียวกัน หรือแม้แต่การทำให้เพื่อนร่วมรบได้รับบาดเจ็บ
ปัญหาเชิงลึกคือ “กลไกความรับผิดชอบ” หากในอนาคตเกิดเครือข่ายอาวุธที่ประกอบด้วยโดรนจำนวนหลายล้านลำ ซึ่งควบคุมโดยกลุ่มคนไม่กี่คนหรือแม้แต่ผู้บัญชาการคนเดียว เมื่อเกิดความผิดพลาดขึ้น ใครจะรับผิดชอบ? AI? วิศวกร? นายทหาร? หรือผู้นำทางการเมือง?
คำถามเหล่านี้ยังไม่ได้รับการอภิปรายอย่างเต็มที่ในระดับสภาคองเกรส
บริษัทเอกชนมีอำนาจเหนือกว่ารัฐบาลหรือไม่?
คำถามที่รุนแรงที่สุดในบทสัมภาษณ์คือ: ทำไมบริษัทเอกชนจึงมีสิทธิ์กำหนดวิธีที่กองทัพจะใช้เทคโนโลยีของตนเอง?
คำตอบของ Amodei ชัดเจน — ตลาดเสรี
เขาชี้ว่า รัฐบาลสามารถเลือกซัพพลายเออร์รายอื่นได้เสมอ หากค่านิยมไม่ตรงกัน ก็สามารถแยกทางกันอย่างสงบได้ โดยไม่ต้องใช้มาตรการลงโทษด้วยการใส่เครื่องหมายความเสี่ยงในซัพพลายเชน เขาเชื่อว่าการทำเช่นนี้จะสร้างผลกระทบเชิงลบต่อบริษัทเอกชนในระยะยาว
นอกจากนี้ เขายังยอมรับว่า ในระยะยาว ควรมีการออกกฎหมายโดยสภาคองเกรสเพื่อกำหนดกรอบกฎหมายที่ชัดเจนสำหรับ AI ในด้านการเฝ้าระวังและอาวุธอัตโนมัติ เขาเรียกร้องให้สภาคองเกรสเร่งออกกฎหมายเพื่อให้กฎหมายตามทันเทคโนโลยี
เรื่องนี้เกี่ยวกับอุดมการณ์หรือไม่?
ฝ่ายวิจารณ์มองว่า Anthropic เป็น “บริษัทตื่นรู้ฝ่ายซ้าย” แต่ Amodei ปฏิเสธคำกล่าวนี้ ย้ำว่าบริษัทได้ร่วมมือกับรัฐบาลในหลายประเด็น เช่น นโยบายด้านพลังงานและแผนดำเนินงานด้าน AI เขายืนยันว่าความแตกต่างนี้ไม่เกี่ยวกับการเมือง แต่เป็นเรื่องค่านิยมและความเสี่ยง
เขาเน้นว่า: “ไม่เห็นด้วยกับรัฐบาล คือการแสดงความเป็นอเมริกันอย่างแท้จริง”
Anthropic จะผ่านพายุนี้ไปได้หรือไม่?
ในด้านธุรกิจ Amodei ดูมั่นใจ เขาเชื่อว่าผลกระทบจากการกำหนดความเสี่ยงในซัพพลายเชนจะจำกัด ไม่ได้ห้ามบริษัทอื่นใช้เทคโนโลยีของ Anthropic ในงานด้านทหารโดยตรง แต่จะจำกัดเฉพาะงานสัญญาทางทหารเท่านั้น
เขามองว่าข้อกล่าวหาบางส่วนเป็นการสร้างความตื่นตระหนกและความไม่แน่นอน (FUD) แต่ธุรกิจหลักของบริษัทจะยังคงดำเนินไปอย่างมั่นคง
ความขัดแย้งนี้เปิดเผยปัญหาใหญ่กว่า เมื่อเทคโนโลยี AI พัฒนาขึ้นอย่างรวดเร็ว แต่กฎหมายและกฎระเบียบยังตามไม่ทัน ใครจะเป็นผู้กำหนดเส้นแบ่ง?
Anthropic เชื่อว่า “99% สามารถร่วมมือได้ แต่ 1% ต้องระมัดระวัง” ขณะที่กระทรวงกลาโหมเน้นว่า “ทุกการใช้งานที่ถูกกฎหมายควรเปิดกว้าง” ความแตกต่างนี้ไม่ใช่แค่เชิงนโยบาย แต่เป็นการคาดการณ์อนาคตของสงครามที่แตกต่างกัน