หน้าแรก / บทความ / AI & LLM
AI & LLM วิเคราะห์จากสเปค + รีวิว

Meta ทุ่มพันล้านดอลลาร์ซื้อ CPU Amazon Graviton5 สำหรับ AI Agents — สัญญาณเปลี่ยนเกม AI Chip Race

Meta เซ็นดีลมูลค่าหลายพันล้านดอลลาร์กับ AWS ใช้ Graviton5 CPU สำหรับ agentic AI inference แทนที่จะพึ่ง GPU อย่างเดียว

Meta ทุ่มพันล้านดอลลาร์ซื้อ CPU Amazon Graviton5 สำหรับ AI Agents — สัญญาณเปลี่ยนเกม AI Chip Race

Meta เซ็นดีลมูลค่าหลายพันล้านดอลลาร์กับ AWS เพื่อใช้ชิป Graviton5 รัน agentic AI — ส่งสัญญาณว่า AI chip race ไม่ใช่แค่สงคราม GPU อีกต่อไป แต่ CPU กำลังกลายเป็นหัวใจของ AI inference ยุคใหม่

Meta เพิ่งเซ็นสัญญาหลายปีกับ AWS มูลค่าหลายพันล้านดอลลาร์ เพื่อใช้ชิป Graviton5 จำนวนหลายสิบล้าน cores สำหรับ agentic AI workloads โดยเฉพาะ ไม่ว่าจะเป็น real-time reasoning, code generation, search หรือการประสานงาน multi-step tasks — ทั้งหมดเป็นงาน inference ไม่ใช่ training

สิ่งสำคัญที่ต้องเข้าใจคือ Meta ไม่ได้ทิ้ง GPU ไปเลย — GPU ยังจำเป็นสำหรับ training โมเดลขนาดใหญ่อยู่ แต่สำหรับงาน inference ของ AI agents ที่ต้องคิดเป็นขั้นตอน CPU อย่าง Graviton5 ตอบโจทย์ได้ดีกว่าในแง่ประสิทธิภาพต่อวัตต์

Santosh Janardhan หัวหน้าฝ่าย infrastructure ของ Meta บอกว่า “การกระจายแหล่ง compute เป็นเรื่องเชิงกลยุทธ์ Graviton ช่วยให้เรารัน CPU-intensive workloads ของ agentic AI ได้ทั้งประสิทธิภาพและความคุ้มค่า”

Amazon Graviton5 ชิป CPU ที่ Meta เลือกใช้สำหรับ agentic AI workloads

ทำไม Meta ถึงเลือก Graviton5

Graviton5 ของ AWS เป็นชิปที่ผลิตบน process 3nm มี 192 cores ต่อชิป พร้อม cache ที่ใหญ่กว่ารุ่นก่อน 5 เท่า และลด latency ระหว่าง cores ลง 33% ประสิทธิภาพโดยรวมดีกว่ารุ่นเดิม 25%

สเปคพวกนี้เหมาะกับ agentic AI workloads ตรงๆ เพราะ AI agents ทำงานแบบ sequential reasoning — คิดทีละขั้น ตัดสินใจ แล้วทำต่อ ไม่ได้ต้องการ parallel processing ระดับที่ GPU ให้ แต่ต้องการ single-thread performance ที่แรงและ cache ที่ใหญ่เพื่อจัดการ context ยาวๆ

ดีลนี้ทำให้ Meta กลายเป็นหนึ่งใน Graviton customers รายใหญ่ที่สุดของ AWS ทันที เป็นส่วนหนึ่งของแผนจัดหา compute มูลค่ารวมกว่า 200 พันล้านดอลลาร์ ที่กระจายไปทั้ง Nvidia, AMD, CoreWeave และตอนนี้ก็ Amazon

GPU vs CPU สำหรับ AI — ไม่ใช่เรื่อง “แทนที่” แต่เป็น “ใช้ให้ถูกงาน”

Factor GPU (Training & Heavy Inference)CPU Graviton5 (Agentic Inference)
จุดแข็ง Parallel processing สูงมากSequential reasoning + cache ใหญ่
เหมาะกับ Training, image/video generationAI agents, reasoning, orchestration
ต้นทุนต่อ inference สูง — เพราะ GPU แพงต่ำกว่า — CPU คุ้มค่ากว่าสำหรับงานนี้
พลังงาน สูง (300-700W ต่อการ์ด)ต่ำกว่าอย่างเห็นได้ชัด

ต้องเน้นย้ำว่านี่ไม่ใช่เรื่อง CPU ชนะ GPU — มันเป็นคนละเกมกัน GPU ยังเป็นราชาของ training โมเดลขนาดใหญ่และงาน parallel หนักๆ อย่าง image generation แต่สำหรับ AI agents ที่ทำงานแบบคิด-ตัดสินใจ-ทำ เป็น pipeline CPU ที่มี cache ใหญ่และ latency ต่ำกลับทำงานได้ดีกว่าและถูกกว่า

เปรียบเทียบ workload ระหว่าง GPU training กับ CPU inference สำหรับ AI agents

Nafea Bshara รองประธาน Amazon บอกว่า “นี่ไม่ใช่แค่เรื่องชิป แต่เป็นการวาง infrastructure foundation ให้ลูกค้าสร้าง AI ที่เข้าใจ คาดการณ์ และ scale ได้อย่างมีประสิทธิภาพ”

CPU ทำ AI Agents ได้จริงแค่ไหน

งาน agentic AI ที่เหมาะกับ CPU มีหลายประเภท — customer service chatbot ที่ต้องคิดหลายขั้นตอนก่อนตอบ, content moderation ที่กรองข้อความ, workflow automation ที่ประสาน API หลายตัว, หรือ document processing ที่วิเคราะห์เอกสาร

พวกนี้ล้วนเป็นงาน sequential reasoning — ไม่ได้ต้องการ parallel compute แต่ต้องการความเร็วในการคิดทีละขั้น ซึ่ง CPU ที่มี cache ใหญ่อย่าง Graviton5 ทำได้ดี

แต่ถ้าต้อง train model ใหม่ ทำ real-time image processing หรือ video analysis GPU ยังจำเป็นอยู่ ไม่มีทางลัด

เทียบทางเลือก compute สำหรับ AI agents

Factor AWS Graviton (CPU)GPU Cloud (A100/H100)Managed AI APIs
ต้นทุนเริ่มต้น ต่ำ — ใช้ EC2 instance ได้เลยสูง — ต้องเช่า GPU instanceต่ำสุด — pay-per-call
ควบคุม model สูง — host เองได้สูงต่ำ — ใช้ model ที่ provider ให้
Latency ต่ำต่ำแปรผันตาม network
เหมาะกับ Agentic inference, orchestrationTraining, heavy inferencePrototype, low volume

ข้อดี

  • +ต้นทุน inference ต่ำกว่า GPU สำหรับ agentic workloads
  • +Graviton5 ให้ single-thread performance สูง เหมาะกับ sequential reasoning
  • +ไม่ต้องรอคิว GPU ที่ขาดแคลนทั่วโลก
  • +กินไฟน้อยกว่า GPU อย่างเห็นได้ชัด ลดต้นทุนระยะยาว

ข้อเสีย

  • ไม่เหมาะกับ training model — ยังต้องใช้ GPU
  • งาน parallel หนักๆ อย่าง image/video generation ทำไม่ได้
  • ต้องเข้าใจว่า workload ไหนเหมาะ CPU vs GPU ไม่ใช่ one-size-fits-all
  • Graviton เป็น ARM-based — software บางตัวอาจยังไม่รองรับเต็มที่
แนวโน้มการใช้ CPU สำหรับ AI inference เพิ่มขึ้นในปี 2026

สำหรับ startup ไทยที่เพิ่งเริ่มต้น สิ่งสำคัญคือเลือก use case ให้ถูก — ถ้าทำ chatbot, workflow automation หรือ document processing การใช้ CPU instance บน AWS จะคุ้มกว่า GPU มาก แต่ถ้าต้อง train model เองหรือทำ computer vision ก็ยังต้อง GPU อยู่ดี

ต้นทุนที่ซ่อนอยู่ที่ต้องรู้

นอกจากค่า compute แล้ว startup ไทยต้องคิดเรื่อง talent — developer ที่เข้าใจ AI architecture หายากและแพง ต้องใช้เวลา optimize model ให้รันบน CPU ได้ดี ซึ่งต้องมีความรู้เฉพาะทาง

Infrastructure scaling ก็เป็นปัญหาที่หลายคนมองข้าม เริ่มต้นอาจใช้ instance เล็กๆ ได้ แต่พอ user เพิ่มขึ้นต้องพร้อม scale ทั้ง compute และ monitoring

ต้นทุนที่แท้จริงไม่ใช่แค่เงินค่า server — แต่เป็นเวลาและ expertise ในการทำให้ทุกอย่างทำงานร่วมกันได้อย่างเสถียร

ใครควรสนใจเทรนด์นี้

Startup ไทยที่ทำ AI agents เฉพาะด้าน เช่น customer service, content moderation หรือ workflow automation ควรศึกษาเรื่อง CPU-based inference จริงจัง เพราะลดต้นทุนได้เยอะเมื่อเทียบกับการเช่า GPU instance

SME ที่ต้องการ chatbot หรือ automation ภายในองค์กรก็เหมาะ เพราะงานพวกนี้ไม่ต้องการ GPU-level performance แค่ต้องการ inference ที่เสถียรและคุ้มค่า

ใครที่ทำ real-time AI หรือ computer vision ยังต้องใช้ GPU อยู่ แต่สำหรับ text-based AI agents ดีลของ Meta กับ AWS เป็นสัญญาณชัดว่า CPU inference คือทิศทางที่ถูกต้อง

สรุป — AI chip race เปลี่ยนไปแล้ว

ดีลนี้ของ Meta ไม่ได้แปลว่า GPU ตายแล้ว — แต่แปลว่า AI workloads กำลังแตกแขนงออกเป็นสองขั้ว: training ยังเป็นของ GPU แต่ inference โดยเฉพาะ agentic workloads กำลังย้ายไป CPU ที่คุ้มค่ากว่า

สำหรับ dev ไทย นี่เป็นโอกาสที่น่าสนใจ เพราะ barrier ในการเข้าถึง AI inference ลดลง ไม่ต้องแย่ง GPU ที่ขาดตลาดทั่วโลก แค่เลือก compute ให้ตรงกับ workload ก็เริ่มสร้าง AI agents ได้แล้ว