สั้นๆ
ไม่กี่ชั่วโมงหลังจากประธานาธิบดีโดนัลด์ ทรัมป์ สั่งให้หน่วยงานของรัฐบาลหยุดใช้เครื่องมือ AI ของ Anthropic กองทัพสหรัฐฯ ได้ดำเนินการโจมตีทางอากาศครั้งใหญ่ต่ออิหร่าน ซึ่งรายงานว่าใช้แพลตฟอร์ม Claude ของบริษัท กองบัญชาการกลางของสหรัฐฯ ใช้ Claude สำหรับการประเมินข้อมูลข่าวกรอง การระบุเป้าหมาย และการจำลองสถานการณ์การต่อสู้ในช่วงการโจมตีอิหร่าน ซึ่งแหล่งข่าวที่คุ้นเคยกับเรื่องนี้ยืนยันกับ Wall Street Journal เมื่อวันเสาร์ เรื่องนี้เกิดขึ้นแม้ทรัมป์จะออกคำสั่งเมื่อวันศุกร์ให้หน่วยงานเริ่มเลิกใช้ผลิตภัณฑ์ของ Anthropic เป็นเวลา 6 เดือน หลังจากการเจรจาระหว่างบริษัทและกระทรวงกลาโหมล้มเหลวเกี่ยวกับวิธีที่กระทรวงสามารถใช้ระบบ AI ที่พัฒนาขึ้นเชิงพาณิชย์ Decrypt ได้ติดต่อกระทรวงกลาโหมและ Anthropic เพื่อขอความคิดเห็น
“เมื่อเครื่องมือ AI ถูกฝังอยู่ในระบบข่าวกรองและการจำลองสถานการณ์ที่ใช้งานจริงแล้ว การตัดสินใจของระดับบนสุดไม่ได้แปลเป็นการเปลี่ยนแปลงบนพื้นดินในทันที” มิฑุน ครีชนะ ม, ผู้ร่วมก่อตั้งและ CEO ของ TknOps.io ซึ่งเป็นเครื่องมือติดตามต้นทุน LLM กล่าวกับ Decrypt “มีความล่าช้า—ทั้งด้านเทคนิค กระบวนการ และมนุษย์” “เมื่อโมเดลถูกฝังอยู่ในระบบข่าวกรองและการจำลองสถานการณ์ที่เป็นความลับแล้ว คุณจะต้องเผชิญกับต้นทุนการบูรณาการที่สูญเปล่า การฝึกอบรมใหม่ การรับรองความปลอดภัยอีกครั้ง และการทดสอบคู่ขนาน ดังนั้นการเลิกใช้ใน 6 เดือนอาจดูเป็นการตัดสินใจที่เด็ดขาด แต่ภาระทางการเงินและการดำเนินงานที่แท้จริงลึกซึ้งกว่านั้นมาก” ครีชนะ กล่าวเสริม “หน่วยงานด้านการป้องกันจะให้ความสำคัญกับความสามารถในการพกพาและความซ้ำซ้อนของโมเดล” เขากล่าว “ไม่มีนักรบในกองทัพที่จริงจังอยากพบว่าในช่วงวิกฤติ ชั้น AI ของตนเป็นจุดอ่อนทางการเมือง”
Dario Amodei ซีอีโอของ Anthropic กล่าวเมื่อวันพฤหัสบดีว่า บริษัทจะไม่ถอดถอนมาตรการป้องกันไม่ให้ Claude ถูกนำไปใช้ในการสอดแนมภายในประเทศจำนวนมากหรืออาวุธอัตโนมัติเต็มรูปแบบ “เราไม่สามารถให้ความเห็นชอบตามจิตสำนึกที่ดีต่อคำขอของพวกเขาได้” Amodei เขียน หลังจากกระทรวงกลาโหมเรียกร้องให้ผู้รับเหมาอนุญาตให้ใช้ระบบของตนสำหรับ “การใช้งานที่ชอบด้วยกฎหมายใดๆ” ทรัมป์ได้เขียนบน Truth Social ว่า “กลุ่มหัวรุนแรงฝ่ายซ้ายใน Anthropic ได้ทำผิดพลาดอย่างร้ายแรงโดยพยายามบีบบังคับกระทรวงสงคราม” โดยสั่งให้หน่วยงาน “หยุดใช้ผลิตภัณฑ์ของ Anthropic ทันที” รัฐมนตรีกลาโหม Pete Hegseth ได้ตามมาโดยประกาศว่า Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทานต่อความมั่นคงแห่งชาติ” ซึ่งเป็นคำจำกัดความที่เคยใช้กับศัตรูต่างชาติ ห้ามผู้รับเหมาและพันธมิตรของ Pentagon ทุกคนทำกิจกรรมเชิงพาณิชย์กับบริษัท Anthropic เรียกการกำหนดนี้ว่า “ไม่เคยมีมาก่อน” และสัญญาว่าจะท้าทายในศาล โดยระบุว่า “ไม่เคยมีการใช้กับบริษัทอเมริกันในลักษณะนี้มาก่อน” บริษัทเสริมว่า จากความรู้ของตน การจำกัดทั้งสองที่เป็นข้อพิพาทยังไม่ส่งผลกระทบต่อภารกิจของรัฐบาลแม้แต่ภารกิจเดียว “ประเด็นไม่ใช่เรื่องว่า AI จะถูกใช้ในด้านการป้องกันหรือไม่ เพราะมันเกิดขึ้นแล้ว” ครีชนะ กล่าว “แต่เป็นเรื่องว่าห้องปฏิบัติการแนวหน้าเหล่านี้จะสามารถรักษามาตรการป้องกันที่แตกต่างกันได้หรือไม่ เมื่อระบบของพวกเขากลายเป็นทรัพย์สินเชิงปฏิบัติการภายใต้สัญญา ‘ใช้งานได้ตามกฎหมายใดๆ’” OpenAI ได้ดำเนินการอย่างรวดเร็วเพื่อเติมเต็มช่องว่าง โดย CEO Sam Altman ประกาศข้อตกลงกับกระทรวงกลาโหมในคืนวันศุกร์ ซึ่งครอบคลุมเครือข่ายทหารลับ โดยอ้างว่าสัญญานั้นมีมาตรการป้องกันเช่นเดียวกับที่ Anthropic ต้องการ
เมื่อวานนี้เราได้บรรลุข้อตกลงกับกระทรวงสงครามในการนำระบบ AI ขั้นสูงไปใช้ในสภาพแวดล้อมลับ ซึ่งเราได้ขอให้พวกเขาทำให้สามารถใช้งานได้กับทุกบริษัท AI
เราเชื่อว่าการนำไปใช้งานของเรา มีมาตรการป้องกันมากกว่าข้อตกลงใดๆ สำหรับ AI ที่เป็นความลับก่อนหน้านี้…
— OpenAI (@OpenAI) 28 กุมภาพันธ์ 2026
ถามว่าการที่ Pentagon ทำการขึ้นบัญชีดำ Anthropic อย่างมีประสิทธิภาพเป็นบรรทัดฐานที่น่ากังวลสำหรับข้อพิพาทในอนาคตกับบริษัท AI หรือไม่ CEO ของ OpenAI Sam Altman ตอบบน X ว่า “ใช่; ผมคิดว่านี่เป็นบรรทัดฐานที่น่ากลัวมาก และหวังว่าพวกเขาจะจัดการเรื่องนี้ในทางที่แตกต่างออกไป “ผมก็ไม่คิดว่า Anthropic จัดการเรื่องนี้ได้ดีนัก แต่ในฐานะฝ่ายที่มีอำนาจมากกว่า ผมถือว่ารัฐบาลเป็นฝ่ายที่รับผิดชอบมากกว่า ผมยังคงหวังว่าจะได้ข้อสรุปที่ดีกว่านี้” เขาเสริม ในขณะเดียวกัน พนักงานเกือบ 500 คนจาก OpenAI และ Google ได้ลงนามในจดหมายเปิดผนึกเตือนว่ากระทรวงกลาโหมกำลังพยายามให้บริษัท AI แข่งขันกันเอง