Anthropic กับทำเนียบขาวเกิดความขัดแย้งอย่างรุนแรง! ซีอีโอ Amodei ปฏิเสธ "การเฝ้าระวังในประเทศอย่างกว้างขวาง" และ "อาวุธอัตโนมัติเต็มรูปแบบ"

ChainNewsAbmedia

โดย Dario Amodei นำทีมโดย Anthropic ซึ่งเป็นหนึ่งในบริษัท AI ที่มักถูกมองว่ามีความร่วมมือกับรัฐบาลสหรัฐอย่างแข็งขัน กลับกลายเป็นฝ่ายเผชิญหน้ากับกระทรวงกลาโหมสหรัฐฯ อย่างเปิดเผยเนื่องจากข้อจำกัดการใช้งานสองประการ

Amodei เน้นย้ำว่า บริษัทพร้อมสนับสนุนการใช้งานด้านการป้องกันประเทศราว 98% ถึง 99% แต่ยังคงยืนหยัดในจุดยืนไม่สนับสนุนเรื่อง “การเฝ้าระวังในประเทศในระดับใหญ่” และ “อาวุธอัตโนมัติเต็มรูปแบบ” เขาอธิบายว่านี่ไม่ใช่การปฏิเสธความมั่นคงของชาติ แต่เป็นการปกป้องค่านิยมประชาธิปไตยและจิตวิญญาณของรัฐธรรมนูญ

ความร่วมมืออย่างใกล้ชิดกับระบบป้องกันประเทศ แต่กลับวาดเส้นเขตแดนในสองจุด

ในสัมภาษณ์ Amodei เน้นว่า Anthropic เป็นหนึ่งในบริษัท AI ที่แรกที่ร่วมมืออย่างลึกซึ้งกับระบบความมั่นคงของสหรัฐฯ เขาเล่าว่า บริษัทเป็นรายแรกที่นำโมเดลไปใช้งานในสภาพแวดล้อมคลาวด์ลับเฉพาะ และสร้างโมเดลที่ปรับแต่งเฉพาะสำหรับงานด้านความมั่นคง ซึ่งปัจจุบันถูกนำไปใช้ในหน่วยข่าวกรองและกองทัพในด้านต่าง ๆ รวมถึงความปลอดภัยทางไซเบอร์และสนับสนุนการปฏิบัติการ

พูดอีกนัยหนึ่งคือ Anthropic ไม่ได้ปฏิเสธการใช้งานทางทหาร แต่กลับเป็นผู้มีส่วนร่วมอย่างแข็งขัน

อย่างไรก็ตาม บริษัทได้ประกาศจุดยืนชัดเจนในสองข้อที่ไม่สามารถประนีประนอมได้:

ข้อแรก คือ “การเฝ้าระวังในประเทศในระดับใหญ่” Amodei กังวลว่า AI จะทำให้รัฐบาลสามารถวิเคราะห์ข้อมูลจำนวนมหาศาลจากเอกชน เช่น ข้อมูลตำแหน่งที่ตั้ง แนวโน้มทางการเมือง และพฤติกรรมส่วนตัว ได้ในระดับที่ไม่เคยมีมาก่อน ซึ่งแม้ในกรอบกฎหมายปัจจุบันอาจไม่ผิดกฎหมาย แต่การพัฒนาเทคโนโลยี AI อย่างรวดเร็วทำให้ความสามารถในการเฝ้าระวังเกินกว่าจุดประสงค์ของกฎหมายเดิมไปมากแล้ว

ข้อสอง คือ “อาวุธอัตโนมัติเต็มรูปแบบ” ซึ่งหมายถึง ระบบอาวุธที่สามารถตัดสินใจยิงโดยไม่มีการแทรกแซงของมนุษย์ Amodei ชี้ว่า ระบบ AI ยังมีปัญหาเรื่องความไม่สามารถทำนายล่วงหน้าและความน่าเชื่อถือ หากปล่อยให้เครื่องจักรเป็นผู้ตัดสินใจเอง อาจนำไปสู่การตัดสินผิดพลาด การโจมตีผิด การทำร้ายพลเรือน หรือแม้แต่การสับสนระหว่างศัตรูและฝ่ายเดียวกัน

เขาย้ำว่านี่ไม่ใช่การใช้ “อาวุธกึ่งอัตโนมัติ” ที่ใช้อยู่ในสนามรบปัจจุบัน แต่เป็นระบบอาวุธที่ไม่มีการควบคุมจากมนุษย์เลย

สามวันสุดท้ายและข้อพิพาทเรื่อง “ความเสี่ยงในซัพพลายเชน”

ตามคำกล่าวของ Amodei กระทรวงกลาโหมสหรัฐฯ เคยเรียกร้องให้ Anthropic ยอมรับเงื่อนไขภายในสามวัน หากไม่ทำเช่นนั้น จะถูกจัดเป็น “ความเสี่ยงในซัพพลายเชน” ซึ่งโดยปกติคำนี้ใช้กับบริษัทคู่แข่งจากต่างประเทศ เช่น รัสเซียหรือจีน ซึ่งแทบไม่เคยใช้กับบริษัทในสหรัฐฯ เลย

ที่น่าขันคือ การสื่อสารในเรื่องนี้ส่วนใหญ่มาจากโพสต์บนโซเชียลมีเดีย Amodei ระบุว่า บริษัทยังไม่ได้รับเอกสารทางกฎหมายอย่างเป็นทางการ แต่เห็นแต่ประกาศของประธานาธิบดีและเจ้าหน้าที่กระทรวงกลาโหมบน X (เดิม Twitter)

ประธานาธิบดี Donald Trump ยังออกมาวิพากษ์วิจารณ์ Anthropic ว่า “เห็นแก่ตัว” และกล่าวว่าการกระทำเช่นนี้เป็นอันตรายต่อกองทัพและความมั่นคงของชาติ

Amodei ตอบโต้ว่า บริษัทพร้อมสนับสนุนการเปลี่ยนผ่านไปยังผู้ให้บริการรายอื่นในกรณีที่ถูกคว่ำบาตร เพื่อป้องกันไม่ให้กองทัพต้องหยุดชะงักเทคโนโลยีเป็นเวลา 6 ถึง 12 เดือน

แก่นแท้ของปัญหาคืออะไร?

Amodei เชื่อว่าปัญหาหลักไม่ใช่เรื่อง “ใครรักชาติมากกว่า” แต่เป็นเรื่องความพร้อมของเทคโนโลยีและความรับผิดชอบ

เขาชี้ว่า AI ยังมีความไม่สามารถทำนายล่วงหน้าได้ แม้ผลการทำงานโดยรวมดี แต่ในช่วงวิกฤติหากเกิดความผิดพลาด 1% ก็อาจกลายเป็นหายนะสำหรับการปฏิบัติการทางทหาร การโจมตีผิด การสับสนระหว่างศัตรูและฝ่ายเดียวกัน หรือแม้แต่การทำให้เพื่อนร่วมรบได้รับบาดเจ็บ

ปัญหาเชิงลึกคือ “กลไกความรับผิดชอบ” หากในอนาคตเกิดเครือข่ายอาวุธที่ประกอบด้วยโดรนจำนวนหลายล้านลำ ซึ่งควบคุมโดยกลุ่มคนไม่กี่คนหรือแม้แต่ผู้บัญชาการคนเดียว เมื่อเกิดความผิดพลาดขึ้น ใครจะรับผิดชอบ? AI? วิศวกร? นายทหาร? หรือผู้นำทางการเมือง?

คำถามเหล่านี้ยังไม่ได้รับการอภิปรายอย่างเต็มที่ในระดับสภาคองเกรส

บริษัทเอกชนมีอำนาจเหนือกว่ารัฐบาลหรือไม่?

คำถามที่รุนแรงที่สุดในบทสัมภาษณ์คือ: ทำไมบริษัทเอกชนจึงมีสิทธิ์กำหนดวิธีที่กองทัพจะใช้เทคโนโลยีของตนเอง?

คำตอบของ Amodei ชัดเจน — ตลาดเสรี

เขาชี้ว่า รัฐบาลสามารถเลือกซัพพลายเออร์รายอื่นได้เสมอ หากค่านิยมไม่ตรงกัน ก็สามารถแยกทางกันอย่างสงบได้ โดยไม่ต้องใช้มาตรการลงโทษด้วยการใส่เครื่องหมายความเสี่ยงในซัพพลายเชน เขาเชื่อว่าการทำเช่นนี้จะสร้างผลกระทบเชิงลบต่อบริษัทเอกชนในระยะยาว

นอกจากนี้ เขายังยอมรับว่า ในระยะยาว ควรมีการออกกฎหมายโดยสภาคองเกรสเพื่อกำหนดกรอบกฎหมายที่ชัดเจนสำหรับ AI ในด้านการเฝ้าระวังและอาวุธอัตโนมัติ เขาเรียกร้องให้สภาคองเกรสเร่งออกกฎหมายเพื่อให้กฎหมายตามทันเทคโนโลยี

เรื่องนี้เกี่ยวกับอุดมการณ์หรือไม่?

ฝ่ายวิจารณ์มองว่า Anthropic เป็น “บริษัทตื่นรู้ฝ่ายซ้าย” แต่ Amodei ปฏิเสธคำกล่าวนี้ ย้ำว่าบริษัทได้ร่วมมือกับรัฐบาลในหลายประเด็น เช่น นโยบายด้านพลังงานและแผนดำเนินงานด้าน AI เขายืนยันว่าความแตกต่างนี้ไม่เกี่ยวกับการเมือง แต่เป็นเรื่องค่านิยมและความเสี่ยง

เขาเน้นว่า: “ไม่เห็นด้วยกับรัฐบาล คือการแสดงความเป็นอเมริกันอย่างแท้จริง”

Anthropic จะผ่านพายุนี้ไปได้หรือไม่?

ในด้านธุรกิจ Amodei ดูมั่นใจ เขาเชื่อว่าผลกระทบจากการกำหนดความเสี่ยงในซัพพลายเชนจะจำกัด ไม่ได้ห้ามบริษัทอื่นใช้เทคโนโลยีของ Anthropic ในงานด้านทหารโดยตรง แต่จะจำกัดเฉพาะงานสัญญาทางทหารเท่านั้น

เขามองว่าข้อกล่าวหาบางส่วนเป็นการสร้างความตื่นตระหนกและความไม่แน่นอน (FUD) แต่ธุรกิจหลักของบริษัทจะยังคงดำเนินไปอย่างมั่นคง

ความขัดแย้งนี้เปิดเผยปัญหาใหญ่กว่า เมื่อเทคโนโลยี AI พัฒนาขึ้นอย่างรวดเร็ว แต่กฎหมายและกฎระเบียบยังตามไม่ทัน ใครจะเป็นผู้กำหนดเส้นแบ่ง?

Anthropic เชื่อว่า “99% สามารถร่วมมือได้ แต่ 1% ต้องระมัดระวัง” ขณะที่กระทรวงกลาโหมเน้นว่า “ทุกการใช้งานที่ถูกกฎหมายควรเปิดกว้าง” ความแตกต่างนี้ไม่ใช่แค่เชิงนโยบาย แต่เป็นการคาดการณ์อนาคตของสงครามที่แตกต่างกัน

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น