เขียนโดย: Ada, Deep Tide TechFlow
พงรำยังไม่ทันนั่งทำงานใน Meta ก็ลาออกแล้ว
ในเดือนกรกฎาคม 2025 ซาเก็ตเบิร์กใช้แผนค่าตอบแทนรวมมูลค่ากว่า 200 ล้านดอลลาร์ต่อปี จากการคว้าตัววิศวกรชาวจีนในด้านโครงสร้างพื้นฐาน AI ที่เป็นที่ต้องการที่สุดจาก Apple ไปได้ พงรำถูกจัดให้อยู่ในห้องปฏิบัติการ AI อัจฉริยะระดับซูเปอร์ของ Meta รับผิดชอบการสร้างโครงสร้างพื้นฐานสำหรับโมเดล AI รุ่นต่อไป
หลังจาก 7 เดือน OpenAI ก็ชักชวนเขาไปอีกครั้ง
ตามรายงานของ The Information OpenAI ได้เปิดตัวการล่อใจด้วยการชักชวนเป็นเวลาหลายเดือน แม้พงรำจะบอกเพื่อนร่วมงานว่า “เขามีความสุขมากกับการทำงานใน Meta” แต่สุดท้ายก็เลือกที่จะลาออก ตามรายงานของ Bloomberg เขาได้รับค่าตอบแทนใน Meta ที่เชื่อมโยงกับเป้าหมายสำคัญ การลาออกก่อนกำหนดหมายถึงการสละสิทธิ์หุ้นส่วนใหญ่ที่ยังไม่ได้รับ
200 ล้านดอลลาร์ ไม่สามารถซื้อความจงรักภักดีได้ 7 เดือน
นี่ไม่ใช่เรื่องรางๆ ของการเปลี่ยนงานง่ายๆ
พงรำไม่ใช่คนแรกที่ลาออก
เมื่อสัปดาห์ที่แล้ว ผู้รับผิดชอบแพลตฟอร์มผลิตภัณฑ์ห้องปฏิบัติการ AI อัจฉริยะระดับซูเปอร์ของ Meta อย่าง Mat Velloso ก็ประกาศลาออก เขาย้ายมาจาก Google DeepMind เมื่อเดือนกรกฎาคมปีที่แล้ว ใช้เวลาน้อยกว่า 8 เดือนใน Meta ย้อนกลับไปก่อนหน้านั้น ในเดือนพฤศจิกายน 2025 นักวิทยาศาสตร์ด้าน AI หัวกะทิและผู้ได้รับรางวัล Turing Yann LeCun ซึ่งเป็นหัวหน้า AI ของ Meta ก็ประกาศลาออกเพื่อเริ่มต้นธุรกิจของตัวเอง ทำในสิ่งที่เขาเคยสนับสนุนอย่าง “โมเดลโลก” นักวิจัยหลักด้าน AI ของ Meta อย่าง Russ Salakhutdinov ก็ประกาศลาออกในช่วงนี้เช่นกัน
เพื่อเข้าใจการสูญเสียบุคลากรใน Meta AI ต้องเข้าใจให้ดีว่า Llama 4 นั้นเจ็บปวดแค่ไหน
ในเดือนเมษายน 2025 Meta เปิดตัวโมเดล Scout และ Maverick ของซีรีส์ Llama 4 อย่างเป็นทางการ ข้อมูลบนกระดาษของพวกเขาดูหรูหรา อ้างว่าสามารถเอาชนะ GPT-4.5 และ Claude Sonnet 3.7 ในการทดสอบมาตรฐานสำคัญเช่น MATH-500 และ GPQA Diamond ได้อย่างครอบคลุม
แต่โมเดลเรือธงที่เต็มไปด้วยความทะเยอทะยานของ Meta กลับถูกทดสอบโดยกลุ่มอิสระในชุมชนโอเพนซอร์สอย่างรวดเร็วและเปิดเผยความจริง ความสามารถในการทั่วไปและการวิเคราะห์เชิงเหตุผลของมันกลับห่างไกลจากคำโฆษณาอย่างมาก เมื่อเผชิญกับคำถามจากชุมชน หัวหน้า AI Yann LeCun ก็ยอมรับในที่สุดว่า ทีมใช้เวอร์ชันโมเดลที่แตกต่างกันในการทดสอบแต่ละชุด เพื่อปรับแต้มสุดท้ายให้ดีขึ้น
ในวงการวิชาการและวิศวกรรม AI ที่เข้มงวด นี่เป็นการละเมิดกฎที่ร้ายแรง กล่าวอีกนัยหนึ่ง ทีมฝึก Llama 4 ให้กลายเป็น “นักทำข้อสอบในเมืองเล็ก” ที่ทำแต่ข้อสอบเก่า ไม่ใช่ “นักเรียนเก่ง” ที่มีความสามารถล้ำหน้า การสอบคณิตศาสตร์ก็ให้ดูข้อสอบคณิตศาสตร์ การเขียนโปรแกรมก็ให้ดูข้อสอบเขียนโปรแกรม แต่ละทดสอบดูเหมือนเก่ง แต่จริงๆ แล้วไม่ใช่โมเดลเดียวกัน
ในวงการวิชาการ AI เรียกสิ่งนี้ว่า “การเก็บเชอร์รี่” ในวงการการสอบแข่งขัน เรียกว่า “การปลอมแปลงข้อสอบ”
สำหรับ Meta ซึ่งถือว่าเป็น “เสาไฟส่องสว่างของโอเพนซอร์ส” การเกิดเรื่องนี้ทำลายความเชื่อมั่นในระบบนิเวศนักพัฒนาของตนอย่างรุนแรง ผลที่ตามมาคือ ซาเก็ตเบิร์กสูญเสียความเชื่อมั่นในความสามารถของทีม GenAI เดิมอย่างสิ้นเชิง และเป็นจุดเริ่มต้นของการแต่งตั้งผู้บริหารระดับสูงจากภายนอกและการกดดันหน่วยงานพื้นฐานสำคัญ
เขาใช้เงิน 14.3 ถึง 15 พันล้านดอลลาร์ ซื้อหุ้น 49% ของบริษัทข้อมูลป้ายชื่อ Scale AI แล้วแต่งตั้ง Alexander Wang ซีอีโอวัย 28 ปีของ Scale AI เป็นประธานเจ้าหน้าที่ AI ของ Meta สร้างห้องปฏิบัติการ AI อัจฉริยะระดับซูเปอร์ของ Meta (MSL) นักวิจัยรางวัล Turing LeCun ต้องรายงานต่อหนุ่มวัย 28 ปีนี้ ในเดือนตุลาคม Meta ปลดพนักงานประมาณ 600 ตำแหน่ง รวมถึงสมาชิกในแผนกวิจัย FAIR ที่ LeCun ก่อตั้งขึ้นเอง
โมเดลเรือธง Llama 4 Behemoth ที่วางแผนจะเปิดตัวในฤดูร้อนปี 2025 ก็ถูกเลื่อนออกไปเรื่อยๆ จากฤดูร้อนเป็นฤดูใบไม้ร่วง และสุดท้ายก็ถูกระงับไม่มีกำหนด
Meta หันไปพัฒนาโมเดลข้อความรุ่นใหม่รหัส “Avocado” และโมเดลภาพ/วิดีโอรหัส “Mango” รายงานระบุว่า เป้าหมายของ Avocado คือเทียบชั้น GPT-5 และ Gemini 3 Ultra คาดว่าจะส่งมอบในปลายปี 2025 แต่เนื่องจากผลการทดสอบและการปรับแต่งการฝึกไม่เป็นไปตามเป้า จึงเลื่อนออกไปเป็นไตรมาสแรกของปี 2026 Meta กำลังพิจารณาปล่อยแบบปิดซอร์ส ยกเลิกแนวทางโอเพนซอร์สของซีรีส์ Llama
Meta ทำผิดพลาดร้ายแรงสองอย่างในโมเดล AI คือ 1) การปลอมแปลงผลการทดสอบ benchmark ซึ่งทำลายความเชื่อมั่นของชุมชนนักพัฒนา 2) การบรรจุหน่วยงานวิจัยพื้นฐานอย่าง FAIR ซึ่งต้องใช้เวลาหลายปีกว่าจะสร้างความเชี่ยวชาญ เข้ากับทีมผลิตภัณฑ์ที่เน้น KPI รายไตรมาส สองสิ่งนี้เป็นสาเหตุหลักของการสูญเสียบุคลากรในปัจจุบัน
บุคลากรกำลังวิ่ง ชิปก็มีปัญหา
ตามรายงานของ The Information เมื่อสัปดาห์ที่ผ่านมา Meta ได้ยกเลิกโครงการพัฒนาชิป AI ที่ล้ำหน้าที่สุดของตนเอง
แผนชิปเซ็ตของ Meta ชื่อ MTIA (Meta Training and Inference Accelerator) แผนงานแรกสุดมีความทะเยอทะยาน: รุ่น v4 รหัส “Santa Barbara”, v5 รหัส “Olympus”, v6 รหัส “Universal Core” คาดว่าจะเปิดตัวในช่วงปี 2026 ถึง 2028 โดย Olympus ถูกออกแบบให้เป็นชิปแรกของ Meta ที่ใช้สถาปัตยกรรมชิปlet ขนาด 2 นาโนเมตร เพื่อรองรับการฝึกโมเดลระดับสูงและการวิเคราะห์แบบเรียลไทม์ในที่สุดก็จะมาแทนที่ Nvidia ในคลัสเตอร์การฝึกของ Meta
แต่ตอนนี้ โครงการสุดล้ำนี้ก็ถูกยกเลิกไปแล้ว
Meta ก็ไม่ได้ไม่มีความคืบหน้า ในด้านการวิเคราะห์ (Inference) ก็มีความก้าวหน้า ชิป MTIA v3 รหัส “Iris” ที่ใช้สำหรับวิเคราะห์ ได้ถูกนำไปใช้อย่างแพร่หลายที่ศูนย์ข้อมูลของ Meta สำหรับ Facebook Reels และ Instagram ซึ่งช่วยลดต้นทุนโดยรวมลง 40-44% แต่การวิเคราะห์และการฝึกเป็นเรื่องคนละเรื่อง การวิเคราะห์คือรันโมเดล การฝึกคือฝึกโมเดล Meta สามารถสร้างชิปวิเคราะห์เองได้ แต่ไม่สามารถสร้างชิปฝึกที่เทียบเท่า Nvidia ได้
นี่ไม่ใช่ครั้งแรกในประวัติศาสตร์ เมื่อปี 2022 Meta เคยพยายามสร้างชิปวิเคราะห์เอง แต่ล้มเหลวในการใช้งานในระดับเล็กและก็ยอมแพ้ แล้วหันไปสั่งซื้อจาก Nvidia แทน
ความล้มเหลวในการพัฒนาชิปเองนี้ ทำให้ Meta ต้องเร่งซื้อชิปจากภายนอกมากขึ้น
ในเดือนมกราคม 2026 Meta ประกาศงบลงทุนในปีนี้อยู่ที่ 1150 ถึง 1350 พันล้านดอลลาร์ ซึ่งเกือบสองเท่าของปีที่แล้วที่ใช้ไป 722 พันล้านดอลลาร์ เงินจำนวนนี้ส่วนใหญ่มุ่งไปที่ชิป
ภายใน 10 วัน มีคำสั่งซื้อใหญ่ 3 รายการเกิดขึ้นต่อเนื่อง:
17 กุมภาพันธ์ Meta เซ็นสัญญาความร่วมมือระยะยาวกับ Nvidia โดยจะใช้ “หลายล้าน” ชิป Blackwell และรุ่นใหม่ Vera Rubin GPU รวมถึง CPU Grace ซึ่งนักวิเคราะห์ประมาณมูลค่าการทำธุรกรรมไว้ที่หลายร้อยพันล้านดอลลาร์ ทำให้ Meta กลายเป็นลูกค้ารายแรกของโลกที่ใช้งาน CPU Grace ของ Nvidia ในระดับคลัสเตอร์
24 กุมภาพันธ์ Meta เซ็นสัญญากับ AMD มูลค่าระหว่าง 600 ถึง 1000 พันล้านดอลลาร์ โดยจะซื้อ GPU ซีรีส์ MI450 รุ่นล่าสุดและ CPU EPYC รุ่นที่ 6 ในส่วนของสัญญานี้ AMD ก็ออกใบสำรองหุ้นให้ Meta สูงสุด 160 ล้านหุ้น คิดเป็นประมาณ 10% ของ AMD ในราคาหุ้นละ 0.01 ดอลลาร์ โดยจะทยอยโอนตามเป้าหมายการส่งมอบ
26 กุมภาพันธ์ ตามรายงานของ The Information Meta เซ็นสัญญาระยะยาวกับ Google โดยเช่าใช้ชิป TPU ของ Google สำหรับฝึกและรันโมเดลภาษาใหญ่รุ่นต่อไป และกำลังพูดคุยกันว่าจะซื้อ TPU โดยตรงมาติดตั้งในศูนย์ข้อมูลของตัวเองตั้งแต่ปี 2027
บริษัทโซเชียลมีเดียแห่งหนึ่ง สั่งซื้อชิปจาก 3 ซัพพลายเออร์ในเวลาเพียง 10 วัน รวมมูลค่ากว่าแสนล้านดอลลาร์
นี่ไม่ใช่การกระจายความเสี่ยง แต่เป็นการซื้อแบบหวาดกลัว
ทำไม Meta ถึงรีบขนาดนี้?
การพัฒนาชิปเองไม่เป็นผล สุดท้ายโครงการชิปฝึกสุดล้ำก็ถูกยกเลิก หมายความว่าในอนาคตอันใกล้ Meta ต้องพึ่งพาการซื้อจากภายนอกเพื่อรองรับความต้องการ AI การวิเคราะห์ (Inference) ของตน ชิป MTIA สำหรับการวิเคราะห์สามารถรองรับงานแนะนำได้ แต่สำหรับการฝึกโมเดลระดับล้ำเช่น Avocado ต้องใช้ฮาร์ดแวร์ระดับเดียวกับ Nvidia เท่านั้น
คู่แข่งไม่รอใครแล้ว OpenAI ได้รับทรัพยากรจาก Microsoft, SoftBank และกองทุนรัฐอาหรับแล้ว Anthropic ก็ได้ TPU และ Trainium จาก Google และ Amazon แล้ว โมเดล Gemini 3 ของ Google ก็ฝึกบน TPU ทั้งหมด ถ้า Meta ไม่ได้พลังการคำนวณเพียงพอ ก็จะไม่สามารถเข้าแข่งขันในสนามนี้ได้
และอาจเป็นเหตุผลที่สำคัญที่สุด ซาเก็ตเบิร์กต้องใช้ “อำนาจการซื้อ” เพื่อชดเชย “ความสามารถในการวิจัยและพัฒนา” ที่ขาดแคลน การล้มเหลวของ Llama 4 การสูญเสียบุคลากรสำคัญ และความล้มเหลวของชิปพัฒนาของตัวเอง รวมกันทำให้เรื่องราว AI ของ Meta ดูอ่อนแอลงในสายตาของวอลล์สตรีท การเซ็นสัญญาซื้อชิปจาก Nvidia, AMD, Google จึงเป็นสัญญาณอย่างน้อยว่า “เรามีเงิน เรากำลังซื้อ เราไม่ยอมแพ้”
กลยุทธ์ของ Meta ตอนนี้คือ ถ้าทำซอฟต์แวร์ไม่ได้ ก็ซื้อฮาร์ดแวร์ ถ้าหาคนไม่เจอ ก็ซื้อชิป แต่การแข่งขัน AI ไม่ใช่แค่การจ่ายเงิน การมีพลังการคำนวณเป็นสิ่งจำเป็น แต่ไม่ใช่สิ่งเพียงพอ หากไม่มีทีมโมเดลชั้นนำและเส้นทางเทคนิคที่ชัดเจน ชิปมากมายก็เป็นเพียงสินค้าคงคลังราคาแพงในโกดังเท่านั้น
ย้อนดู 3 สัญญาซื้อขายของ Meta ในเดือนกุมภาพันธ์ มีรายละเอียดที่หลายคนมองข้าม
Meta ซื้อชิป Blackwell และ Vera Rubin จาก Nvidia, ซื้อ MI450 และ MI455X จาก AMD, เช่า TPU ของ Google สำหรับฝึกโมเดลใหญ่รุ่นต่อไป และวางแผนซื้อโดยตรงในอนาคต
ซัพพลายเออร์ทั้ง 3 ราย ใช้สถาปัตยกรรมและระบบซอฟต์แวร์ที่แตกต่างกันอย่างสิ้นเชิง
หมายความว่า Meta ต้องสลับใช้งาน CUDA ของ Nvidia, ROCm ของ AMD และ XLA/JAX ของ Google ซ้ำแล้วซ้ำเล่า การใช้ซัพพลายเออร์หลายรายช่วยลดความเสี่ยงของซัพพลายเชนและลดต้นทุนฮาร์ดแวร์ แต่ก็เพิ่มความซับซ้อนด้านวิศวกรรมอย่างมหาศาล
นี่คือจุดอ่อนที่ร้ายแรงที่สุดของ Meta ในตอนนี้ เพื่อให้โมเดลระดับพันล้านพารามิเตอร์สามารถฝึกบนฮาร์ดแวร์ทั้ง 3 แบบได้อย่างมีประสิทธิภาพ ต้องการวิศวกรที่ไม่ใช่แค่เข้าใจ CUDA แต่สามารถสร้างโครงสร้างการฝึกแบบข้ามแพลตฟอร์มได้ ซึ่งอาจมีจำนวนไม่เกิน 100 คนทั่วโลก และพงรำคือหนึ่งในนั้น
ใช้เงิน 100 พันล้านดอลลาร์ซื้อฮาร์ดแวร์ที่ซับซ้อนที่สุดในโลก แต่กลับสูญเสียสมองที่สามารถควบคุมฮาร์ดแวร์เหล่านี้ นี่คือภาพที่ซาเก็ตเบิร์กเดิมพันไว้ที่สุดในเกมนี้
มองภาพรวม ซาเก็ตเบิร์กในช่วง 18 เดือนที่ผ่านมา การดำเนินกลยุทธ์ด้าน AI ก็คล้ายกับการลงทุนแบบ All In ในเมตาเวิร์สเมื่อก่อน:
เห็นแนวโน้ม ลงทุนมหาศาล รับคนจำนวนมาก เจออุปสรรค ก็เปลี่ยนกลยุทธ์ ลงทุนใหม่
ตั้งแต่ปี 2021 ถึง 2023 เป็นยุคของเมตาเวิร์ส ผลลัพธ์คือขาดทุนหลายพันล้านต่อปี ราคาหุ้นลดจาก 380 ดอลลาร์เหลือ 88 ดอลลาร์ ปี 2024 ถึง 2026 เป็นยุคของ AI ก็เช่นกัน ลงทุนไม่อั้น เปลี่ยนโครงสร้างองค์กรบ่อยครั้ง และเล่าเรื่อง “เชื่อฉัน ฉันมีวิสัยทัศน์”
ต่างกันตรงที่ ช่วงนี้ AI เป็นแนวโน้มที่จริงจังกว่ามาก และ Meta ก็มีเงินมากพอที่จะเผาเงินได้ รายได้จากโฆษณาก็ยังไหลเข้าอย่างเต็มที่ ในไตรมาสสุดท้ายของปี 2025 รายได้ของ Meta อยู่ที่ 599 พันล้านดอลลาร์ เพิ่มขึ้น 24% จากปีก่อน
แต่ปัญหาคือ เงินซื้อชิป ซื้อพลังการคำนวณ หรือแม้แต่คนในตำแหน่งก็ได้ แต่ซื้อคนที่อยู่ในองค์กรและอยู่กับงานนี้ไม่ได้
พงรำเลือกไป OpenAI Russ Salakhutdinov ก็เลือกลาออก LeCun ก็เลือกเริ่มต้นธุรกิจของตัวเอง
เดิมพันของซาเก็ตเบิร์กตอนนี้คือ ถ้าซื้อชิปให้มากพอ สร้างศูนย์ข้อมูลให้ใหญ่พอ ใช้เงินให้มากพอ ก็อาจจะหาและปลูกฝังคนที่ใช้ทรัพยากรเหล่านี้ได้
อาจเป็นไปได้ Meta เป็นหนึ่งในบริษัทเทคโนโลยีที่รวยที่สุดในโลก กระแสเงินสดจากการดำเนินงานกว่า 100 พันล้านดอลลาร์ คือแนวป้องกันที่แข็งแกร่งที่สุด จาก OpenAI ถึง Anthropic จาก Google ถึงคู่แข่งอื่นๆ Meta ก็ยังคงดึงดูดคนเก่งอย่างต่อเนื่อง ตามรายงานของ Quantumbit ทีม AI อัจฉริยะของ Meta มีสมาชิก 44 คน เกือบ 40% มาจาก OpenAI
แต่ความโหดร้ายของการแข่งขัน AI คือ พลังการคำนวณ รายชื่อบุคลากร และผลการทดลองโมเดล ล้วนเป็นข้อมูลเปิดเผย การปลอมแปลง benchmark ของ Llama 4 ก็พิสูจน์ให้เห็นว่า ในอุตสาหกรรมนี้ คุณไม่สามารถรักษาความเป็นผู้นำด้วย PPT หรือการประชาสัมพันธ์ได้
ตลาดสุดท้ายจะให้ความสำคัญกับสิ่งเดียวเท่านั้น: โมเดลของคุณดีพอหรือไม่
การแข่งขันอาวุธยุทธศาสตร์ด้าน AI เข้าสู่ปี 2026 แล้ว ลำดับในห่วงโซ่อาหารก็เริ่มชัดเจน:
บนสุดคือ OpenAI และ Google OpenAI มีโมเดลที่แข็งแกร่งที่สุด ฐานผู้ใช้มากที่สุด และการระดมทุนที่ก้าวร้าวที่สุด Google มีการพัฒนาชิปเอง โมเดลเอง และโครงสร้างพื้นฐานคลาวด์เองครบถ้วน Anthropic ตามมา ด้วยความสามารถของโมเดล Claude และการสนับสนุนจาก Google และ Amazon ทำให้เป็นกลุ่มแรก
Meta? ลงทุนมากที่สุด เซ็นสัญญาซื้อชิปมากที่สุด และเปลี่ยนแปลงองค์กรบ่อยที่สุด แต่ยังไม่สามารถสร้างโมเดลล้ำหน้าให้ตลาดเชื่อได้
เรื่องราว AI ของ Meta ก็คล้ายกับ Yahoo ในปี 2005 ตอนนั้น Yahoo ก็เป็นบริษัทที่รวยที่สุดในอินเทอร์เน็ต ก็ซื้อกิจการและลงทุนมหาศาล แต่ก็ไม่สามารถสร้างเสิร์ชเอนจินที่ดีเท่ากับ Google ได้ เงินไม่ใช่ทุกอย่าง ซาเก็ตเบิร์กต้องคิดให้ดีว่า Meta จะทำอะไรใน AI และไม่ใช่แค่ตามเทรนด์
แน่นอนว่า ยังเร็วเกินไปที่จะเขียนคำคร่ำครวญถึง Meta ยอดผู้ใช้งาน 3.58 พันล้านคน รายได้ไตรมาส 599 พันล้านดอลลาร์ และฐานข้อมูลโซเชียลที่ใหญ่ที่สุดในโลก เป็นทรัพยากรที่คู่แข่งยากจะลอกเลียนแบบ
ถ้าโมเดลรุ่นใหม่รหัส “Avocado” สามารถส่งมอบตรงตามเป้าหมายในปี 2026 และกลับขึ้นสู่กลุ่มนำ ซาเก็ตเบิร์กก็สามารถอวดอ้างกลยุทธ์ที่กล้าหาญและเต็มไปด้วยวิสัยทัศน์ได้ แต่ถ้าทำไม่ได้อีกครั้ง มูลค่า 135 พันล้านดอลลาร์ ก็อาจกลายเป็นเพียงคลังเก็บแผงวงจรซิลิคอนที่ร้อนระอุ
สุดท้ายแล้ว การแข่งขันอาวุธยุทธศาสตร์ด้าน AI ใน Silicon Valley ก็ไม่เคยขาดผู้ซื้อที่ใช้เงินเป็นอาวุธ แต่สิ่งที่ขาดคือคนที่รู้ว่าจะใช้พลังการคำนวณเหล่านี้สร้างอนาคตอย่างไร