Meta เซ็นดีลมูลค่าหลายพันล้านดอลลาร์กับ AWS เพื่อใช้ชิป Graviton5 รัน agentic AI — ส่งสัญญาณว่า AI chip race ไม่ใช่แค่สงคราม GPU อีกต่อไป แต่ CPU กำลังกลายเป็นหัวใจของ AI inference ยุคใหม่
Meta เพิ่งเซ็นสัญญาหลายปีกับ AWS มูลค่าหลายพันล้านดอลลาร์ เพื่อใช้ชิป Graviton5 จำนวนหลายสิบล้าน cores สำหรับ agentic AI workloads โดยเฉพาะ ไม่ว่าจะเป็น real-time reasoning, code generation, search หรือการประสานงาน multi-step tasks — ทั้งหมดเป็นงาน inference ไม่ใช่ training
สิ่งสำคัญที่ต้องเข้าใจคือ Meta ไม่ได้ทิ้ง GPU ไปเลย — GPU ยังจำเป็นสำหรับ training โมเดลขนาดใหญ่อยู่ แต่สำหรับงาน inference ของ AI agents ที่ต้องคิดเป็นขั้นตอน CPU อย่าง Graviton5 ตอบโจทย์ได้ดีกว่าในแง่ประสิทธิภาพต่อวัตต์
Santosh Janardhan หัวหน้าฝ่าย infrastructure ของ Meta บอกว่า “การกระจายแหล่ง compute เป็นเรื่องเชิงกลยุทธ์ Graviton ช่วยให้เรารัน CPU-intensive workloads ของ agentic AI ได้ทั้งประสิทธิภาพและความคุ้มค่า”

ทำไม Meta ถึงเลือก Graviton5
Graviton5 ของ AWS เป็นชิปที่ผลิตบน process 3nm มี 192 cores ต่อชิป พร้อม cache ที่ใหญ่กว่ารุ่นก่อน 5 เท่า และลด latency ระหว่าง cores ลง 33% ประสิทธิภาพโดยรวมดีกว่ารุ่นเดิม 25%
สเปคพวกนี้เหมาะกับ agentic AI workloads ตรงๆ เพราะ AI agents ทำงานแบบ sequential reasoning — คิดทีละขั้น ตัดสินใจ แล้วทำต่อ ไม่ได้ต้องการ parallel processing ระดับที่ GPU ให้ แต่ต้องการ single-thread performance ที่แรงและ cache ที่ใหญ่เพื่อจัดการ context ยาวๆ
ดีลนี้ทำให้ Meta กลายเป็นหนึ่งใน Graviton customers รายใหญ่ที่สุดของ AWS ทันที เป็นส่วนหนึ่งของแผนจัดหา compute มูลค่ารวมกว่า 200 พันล้านดอลลาร์ ที่กระจายไปทั้ง Nvidia, AMD, CoreWeave และตอนนี้ก็ Amazon
GPU vs CPU สำหรับ AI — ไม่ใช่เรื่อง “แทนที่” แต่เป็น “ใช้ให้ถูกงาน”
| Factor | GPU (Training & Heavy Inference) | CPU Graviton5 (Agentic Inference) |
|---|---|---|
| จุดแข็ง | Parallel processing สูงมาก | Sequential reasoning + cache ใหญ่ |
| เหมาะกับ | Training, image/video generation | AI agents, reasoning, orchestration |
| ต้นทุนต่อ inference | สูง — เพราะ GPU แพง | ต่ำกว่า — CPU คุ้มค่ากว่าสำหรับงานนี้ |
| พลังงาน | สูง (300-700W ต่อการ์ด) | ต่ำกว่าอย่างเห็นได้ชัด |
ต้องเน้นย้ำว่านี่ไม่ใช่เรื่อง CPU ชนะ GPU — มันเป็นคนละเกมกัน GPU ยังเป็นราชาของ training โมเดลขนาดใหญ่และงาน parallel หนักๆ อย่าง image generation แต่สำหรับ AI agents ที่ทำงานแบบคิด-ตัดสินใจ-ทำ เป็น pipeline CPU ที่มี cache ใหญ่และ latency ต่ำกลับทำงานได้ดีกว่าและถูกกว่า

Nafea Bshara รองประธาน Amazon บอกว่า “นี่ไม่ใช่แค่เรื่องชิป แต่เป็นการวาง infrastructure foundation ให้ลูกค้าสร้าง AI ที่เข้าใจ คาดการณ์ และ scale ได้อย่างมีประสิทธิภาพ”
CPU ทำ AI Agents ได้จริงแค่ไหน
งาน agentic AI ที่เหมาะกับ CPU มีหลายประเภท — customer service chatbot ที่ต้องคิดหลายขั้นตอนก่อนตอบ, content moderation ที่กรองข้อความ, workflow automation ที่ประสาน API หลายตัว, หรือ document processing ที่วิเคราะห์เอกสาร
พวกนี้ล้วนเป็นงาน sequential reasoning — ไม่ได้ต้องการ parallel compute แต่ต้องการความเร็วในการคิดทีละขั้น ซึ่ง CPU ที่มี cache ใหญ่อย่าง Graviton5 ทำได้ดี
แต่ถ้าต้อง train model ใหม่ ทำ real-time image processing หรือ video analysis GPU ยังจำเป็นอยู่ ไม่มีทางลัด
เทียบทางเลือก compute สำหรับ AI agents
| Factor | AWS Graviton (CPU) | GPU Cloud (A100/H100) | Managed AI APIs |
|---|---|---|---|
| ต้นทุนเริ่มต้น | ต่ำ — ใช้ EC2 instance ได้เลย | สูง — ต้องเช่า GPU instance | ต่ำสุด — pay-per-call |
| ควบคุม model | สูง — host เองได้ | สูง | ต่ำ — ใช้ model ที่ provider ให้ |
| Latency | ต่ำ | ต่ำ | แปรผันตาม network |
| เหมาะกับ | Agentic inference, orchestration | Training, heavy inference | Prototype, low volume |
ข้อดี
- +ต้นทุน inference ต่ำกว่า GPU สำหรับ agentic workloads
- +Graviton5 ให้ single-thread performance สูง เหมาะกับ sequential reasoning
- +ไม่ต้องรอคิว GPU ที่ขาดแคลนทั่วโลก
- +กินไฟน้อยกว่า GPU อย่างเห็นได้ชัด ลดต้นทุนระยะยาว
ข้อเสีย
- −ไม่เหมาะกับ training model — ยังต้องใช้ GPU
- −งาน parallel หนักๆ อย่าง image/video generation ทำไม่ได้
- −ต้องเข้าใจว่า workload ไหนเหมาะ CPU vs GPU ไม่ใช่ one-size-fits-all
- −Graviton เป็น ARM-based — software บางตัวอาจยังไม่รองรับเต็มที่

สำหรับ startup ไทยที่เพิ่งเริ่มต้น สิ่งสำคัญคือเลือก use case ให้ถูก — ถ้าทำ chatbot, workflow automation หรือ document processing การใช้ CPU instance บน AWS จะคุ้มกว่า GPU มาก แต่ถ้าต้อง train model เองหรือทำ computer vision ก็ยังต้อง GPU อยู่ดี
ต้นทุนที่ซ่อนอยู่ที่ต้องรู้
นอกจากค่า compute แล้ว startup ไทยต้องคิดเรื่อง talent — developer ที่เข้าใจ AI architecture หายากและแพง ต้องใช้เวลา optimize model ให้รันบน CPU ได้ดี ซึ่งต้องมีความรู้เฉพาะทาง
Infrastructure scaling ก็เป็นปัญหาที่หลายคนมองข้าม เริ่มต้นอาจใช้ instance เล็กๆ ได้ แต่พอ user เพิ่มขึ้นต้องพร้อม scale ทั้ง compute และ monitoring
ต้นทุนที่แท้จริงไม่ใช่แค่เงินค่า server — แต่เป็นเวลาและ expertise ในการทำให้ทุกอย่างทำงานร่วมกันได้อย่างเสถียร
ใครควรสนใจเทรนด์นี้
Startup ไทยที่ทำ AI agents เฉพาะด้าน เช่น customer service, content moderation หรือ workflow automation ควรศึกษาเรื่อง CPU-based inference จริงจัง เพราะลดต้นทุนได้เยอะเมื่อเทียบกับการเช่า GPU instance
SME ที่ต้องการ chatbot หรือ automation ภายในองค์กรก็เหมาะ เพราะงานพวกนี้ไม่ต้องการ GPU-level performance แค่ต้องการ inference ที่เสถียรและคุ้มค่า
ใครที่ทำ real-time AI หรือ computer vision ยังต้องใช้ GPU อยู่ แต่สำหรับ text-based AI agents ดีลของ Meta กับ AWS เป็นสัญญาณชัดว่า CPU inference คือทิศทางที่ถูกต้อง
สรุป — AI chip race เปลี่ยนไปแล้ว
ดีลนี้ของ Meta ไม่ได้แปลว่า GPU ตายแล้ว — แต่แปลว่า AI workloads กำลังแตกแขนงออกเป็นสองขั้ว: training ยังเป็นของ GPU แต่ inference โดยเฉพาะ agentic workloads กำลังย้ายไป CPU ที่คุ้มค่ากว่า
สำหรับ dev ไทย นี่เป็นโอกาสที่น่าสนใจ เพราะ barrier ในการเข้าถึง AI inference ลดลง ไม่ต้องแย่ง GPU ที่ขาดตลาดทั่วโลก แค่เลือก compute ให้ตรงกับ workload ก็เริ่มสร้าง AI agents ได้แล้ว