ทำไมต้องเลือกให้ถูกตัว
LLM ไม่ได้มีตัวเดียวที่ดีที่สุดสำหรับทุกงาน — แต่ละตัวมี trade-off คนละชุด บทความนี้ช่วยให้ตัดสินใจได้เร็วขึ้นโดยไม่ต้องทดสอบทุกตัวเอง
Framework การเลือก
1. งานแบบไหน?
| งาน | แนะนำ |
|---|---|
| เขียนโค้ด, debug, refactor | Claude Sonnet / GPT-4o |
| สรุปเอกสาร, ถาม-ตอบยาว | Claude + context window ใหญ่ |
| งานปริมาณมาก, batch | Haiku 4.5 หรือ Gemini Flash |
| Privacy-sensitive, offline | Ollama + Llama 3 / Qwen |
| Multimodal (รูป+text) | GPT-4o, Gemini 1.5 Pro, Claude |
2. งบประมาณ
- ฟรี / ต่ำมาก: Ollama local, Gemini free tier
- $0.01–0.10/1K tokens: Haiku 4.5, GPT-4o mini, Gemini Flash
- $0.10–1.00/1K tokens: Claude Sonnet, GPT-4o, Gemini Pro
- $1+/1K tokens: Claude Opus, GPT-4.5 (งาน high-stakes เท่านั้น)
3. Infrastructure
- Cloud API: ง่ายสุด เริ่มได้เลย
- Self-hosted: Ollama + ต้องการ GPU หรือ CPU แรงพอ (Llama 3 8B ใช้ RAM ~8GB)
- Hybrid: ใช้ local สำหรับ draft, cloud สำหรับ final review
สรุป Decision Tree
มี GPU ดี + data sensitive?
→ Ollama (Llama 3 / Qwen2.5)
ต้องการ context ยาวมาก (>100K tokens)?
→ Claude 3.x หรือ Gemini 1.5 Pro
งานประจำวัน, volume สูง?
→ Haiku 4.5 (ถูกสุด performance ดี)
งาน creative หรือ reasoning ซับซ้อน?
→ Claude Sonnet 4.6
ข้อสังเกตจากใช้จริง
ผมใช้ Haiku 4.5 สำหรับ pipeline generate บทความ ได้ score ~96% เทียบ Sonnet ที่ราคา 3x — ROI ชัดมาก ถ้า prompt + task decomposition ดี model เล็กก็ทำงานได้ใกล้เคียงตัวใหญ่