Anthropic, OpenAI ลดระดับภาษาความปลอดภัยในขณะที่การแข่งขัน AI เร่งความเร็ว

Decrypt
XAI-4.86%

สรุปโดยย่อ

  • TIME รายงานว่า Anthropic ได้ยกเลิกคำมั่นสัญญาในการหยุดการฝึก AI โดยไม่มีมาตรการความปลอดภัยที่รับประกัน
  • OpenAI ก็ได้ลบคำว่า “อย่างปลอดภัย” ออกจากพันธกิจของตนหลังจากปรับโครงสร้างเป็นองค์กรเพื่อแสวงหากำไร
  • ผู้เชี่ยวชาญกล่าวว่าการเปลี่ยนแปลงนี้สะท้อนถึงการเปลี่ยนแปลงทางการเมือง เศรษฐกิจ และเชิงปัญญา

Anthropic ได้ยกเลิกคำมั่นสัญญาด้านความปลอดภัยหลักจากนโยบายการขยายขนาดอย่างรับผิดชอบ ตามรายงานของ TIME. การเปลี่ยนแปลงนี้ผ่อนคลายคำมั่นสัญญาที่เคยห้ามไม่ให้ Claude AI พัฒนา AI ขั้นสูงโดยไม่มีมาตรการความปลอดภัยที่รับประกันไว้ล่วงหน้า การเคลื่อนไหวนี้ปรับเปลี่ยนตำแหน่งของบริษัทในเวทีการแข่งขัน AI กับคู่แข่งอย่าง OpenAI, Google และ xAI โดย Anthropic ได้แสดงตัวว่าเป็นหนึ่งในห้องปฏิบัติการที่ให้ความสำคัญกับความปลอดภัยมากที่สุดในอุตสาหกรรม แต่ภายใต้นโยบายที่ปรับปรุงใหม่ Anthropic ก็ไม่สัญญาว่าจะหยุดการฝึกหากมาตรการลดความเสี่ยงยังไม่สมบูรณ์ “เรารู้สึกว่า การหยุดการฝึกโมเดล AI จะไม่เป็นประโยชน์ต่อใครเลย” Jared Kaplan หัวหน้าฝ่ายวิทยาศาสตร์ของ Anthropic กล่าวกับ TIME. “เราไม่ได้รู้สึกว่าด้วยความก้าวหน้าอย่างรวดเร็วของ AI มันสมเหตุสมผลที่จะทำคำมั่นสัญญาแบบเดี่ยว ๆ … หากคู่แข่งกำลังเดินหน้าอย่างรวดเร็ว” 

การเปลี่ยนแปลงนี้เกิดขึ้นในขณะที่ Anthropic พบว่าตนเองอยู่ในข้อพิพาทสาธารณะกับ รัฐมนตรีกลาโหมสหรัฐ Pete Hegseth เกี่ยวกับการปฏิเสธไม่ให้ Pentagon เข้าถึง Claude อย่างเต็มที่ ซึ่งทำให้ Anthropic เป็นห้องปฏิบัติการ AI รายใหญ่รายเดียวที่อยู่ในกลุ่ม Google, xAI, Meta และ OpenAI ที่มีท่าทีเช่นนี้ Edward Geist นักวิจัยนโยบายอาวุโสจาก RAND Corporation กล่าวว่า แนวคิด “ความปลอดภัย AI” ในอดีตเกิดจากชุมชนเชิงปัญญาเฉพาะกลุ่มที่มีอยู่ก่อนยุคของโมเดลภาษาใหญ่ในปัจจุบัน “เมื่อไม่กี่ปีที่ผ่านมา ก็มีสาขา AI safety” Geist กล่าวกับ Decrypt. “AI safety เคยเกี่ยวข้องกับมุมมองเฉพาะกลุ่มของคนที่สนใจ AI ที่ทรงพลัง ก่อนที่เราจะมี LLMs เหล่านี้” Geist กล่าวว่า นักสนับสนุนด้านความปลอดภัย AI ในช่วงแรกมองภาพของ AI ขั้นสูงในแบบที่แตกต่างออกไปอย่างสิ้นเชิง “พวกเขาจินตนาการปัญหาในแบบที่บางด้านก็เป็นภาพที่แตกต่างอย่างชัดเจนจาก LLMs ในปัจจุบัน ไม่ว่าจะดีหรือร้ายก็ตาม” Geist กล่าว Geist กล่าวว่า การเปลี่ยนแปลงภาษายังเป็นสัญญาณไปยังนักลงทุนและนักนโยบาย “ส่วนหนึ่งเป็นการส่งสัญญาณให้กลุ่มต่าง ๆ ว่า บริษัทเหล่านี้ต้องการสร้างภาพว่าพวกเขาไม่ได้หยุดชะงักในเวทีเศรษฐกิจเพราะกังวลเรื่อง ‘ความปลอดภัย AI’” เขากล่าว พร้อมเสริมว่าคำศัพท์เองก็เปลี่ยนไปตามยุคสมัย Anthropic ไม่ใช่บริษัทเดียวที่ปรับเปลี่ยนคำพูดด้านความปลอดภัย ความหมายของความปลอดภัย AI คืออะไร? รายงานล่าสุดจากองค์กรข่าวไม่แสวงหากำไร The Conversation ระบุว่า OpenAI ก็ได้เปลี่ยนแปลงคำแถลงพันธกิจในเอกสารยื่นภาษีปี 2024 โดยลบคำว่า “อย่างปลอดภัย” คำแถลงเดิมของบริษัทสัญญาว่าจะสร้าง AI แบบทั่วไปที่ “เป็นประโยชน์ต่อมนุษยชาติอย่างปลอดภัย โดยไม่จำเป็นต้องสร้างผลตอบแทนทางการเงิน” แต่เวอร์ชันใหม่ระบุเป้าหมายว่า “เพื่อให้แน่ใจว่า AI ทั่วไปจะเป็นประโยชน์ต่อมนุษยชาติทั้งหมด” “ปัญหาของคำว่า AI security คือไม่มีใครรู้แน่ชัดว่าหมายความว่าอะไร” Geist กล่าว “แต่คำว่า AI safety ก็เป็นคำที่ถกเถียงกันอยู่เช่นกัน” นโยบายใหม่ของ Anthropic เน้นความโปร่งใส เช่น การเผยแพร่ “แผนเส้นทางความปลอดภัยขั้นสูง” และ “รายงานความเสี่ยง” เป็นประจำ และระบุว่าจะชะลอการพัฒนาหากเชื่อว่ามีความเสี่ยงที่จะเกิดหายนะอย่างมีนัยสำคัญ

การเปลี่ยนแปลงนโยบายของ Anthropic และ OpenAI เกิดขึ้นในขณะที่บริษัทต่าง ๆ พยายามเสริมความแข็งแกร่งในตำแหน่งทางการค้า ต้นเดือนนี้ Anthropic เปิดเผยว่าได้รับเงินทุน 30 พันล้านดอลลาร์ โดยมีมูลค่าบริษัทประมาณ 380 พันล้านดอลลาร์ ในขณะเดียวกัน OpenAI ก็อยู่ในขั้นตอนสุดท้ายของรอบระดมทุนที่ได้รับการสนับสนุนจาก Amazon, Microsoft และ Nvidia ซึ่งอาจสูงถึง 100 พันล้านดอลลาร์ Anthropic และ OpenAI รวมถึง Google และ xAI ได้รับสัญญารัฐบาลที่มีผลตอบแทนสูงจากกระทรวงกลาโหมสหรัฐ สำหรับ Anthropic ดูเหมือนว่าสัญญานั้นจะอยู่ในความเสี่ยง เนื่องจาก Pentagon กำลังพิจารณายกเลิกความสัมพันธ์กับบริษัท AI เนื่องจากข้อร้องเรียนเกี่ยวกับการเข้าถึง ในขณะที่เงินลงทุนไหลเข้าสู่ภาคส่วนนี้และการแข่งขันทางภูมิรัฐศาสตร์รุนแรงขึ้น Hamza Chaudhry หัวหน้าฝ่าย AI และความมั่นคงแห่งชาติที่ Future of Life Institute กล่าวว่า การเปลี่ยนแปลงนโยบายสะท้อนให้เห็นถึงพลวัตทางการเมืองที่เปลี่ยนแปลงมากกว่าการแสวงหาโอกาสทางธุรกิจของ Pentagon “ถ้าเป็นเช่นนั้น พวกเขาคงถอยหลังจากคำพูดของ Pentagon เมื่อสัปดาห์ที่แล้ว” Chaudhry กล่าวกับ Decrypt. “Dario [Amodei] คงไม่มาพบกัน” แทนที่นั้น Chaudhry กล่าวว่า การเขียนนโยบายใหม่สะท้อนจุดเปลี่ยนในวิธีที่บริษัท AI พูดถึงความเสี่ยง เมื่อแรงกดดันทางการเมืองและผลประโยชน์ทางการแข่งขันเพิ่มขึ้น “Anthropic ตอนนี้บอกว่า ‘ดูสิ เราไม่สามารถพูดเรื่องความปลอดภัยได้อีกต่อไป เราไม่สามารถหยุดชะงักโดยไม่มีเงื่อนไข และเราจะสนับสนุนการควบคุมที่เบาลง’” เขากล่าว

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น