Xiaomi เปิดตัว MiMo-V2-Flash โมเดล Open Source สาย Coding เร็วแรง

เปิดตัว MiMo-V2-Flash โมเดล AI แบบ Open Source รุ่นล่าสุดที่มาพร้อมสถาปัตยกรรม MoE เน้นความเร็วและราคาประหยัด โดดเด่นด้านการเขียนโค้ดและการใช้เหตุผล (Reasoning) ขึ้นแท่นเบอร์ 1 ใน SWE-bench ฝั่ง Open Source พร้อมท้าชนรุ่นพี่อย่าง GPT-5 และ DeepSeek-V3.2 ด้วยฟีเจอร์ Hybrid Thinking และ Context Window ขนาดมหึมา
วงการ AI ปลายปี 2025 ยังคงเดือดระอุไม่พัก ล่าสุดมีการเปิดตัว MiMo-V2-Flash โมเดลภาษาขนาดใหญ่ (LLM) แบบ Open Source ที่ไม่ได้มาเล่นๆ แต่กะมาเขย่าบัลลังก์เจ้าตลาดด้วยสเปกที่เน้นความ "คุ้มค่าและฉลาดล้ำ" โดยเจ้า MiMo-V2-Flash นี้ถูกวางตัวให้เป็นผู้เชี่ยวชาญด้าน Reasoning (การใช้เหตุผล), Coding (การเขียนโค้ด) และการทำงานแบบ Agentic ที่ซับซ้อน ซึ่งสิ่งที่น่าสนใจคือการใช้สถาปัตยกรรมแบบ Mixture-of-Experts (MoE) ที่มีพารามิเตอร์รวม 309B แต่เรียกใช้งานจริง (Active Parameters) เพียงแค่ 15B เท่านั้น ทำให้มันเบาและรวดเร็วอย่างเหลือเชื่อ
ในแง่ของประสิทธิภาพ MiMo-V2-Flash ไม่ได้แค่คุยโว แต่มีผลทดสอบ Benchmark มายันหน้าคู่แข่ง โดยเฉพาะในสมรภูมิ AIME 2025 และ GPQA-Diamond ที่ทำคะแนนติด Top 2 ของฝั่ง Open Source แต่ที่พีคสุดคือผลทดสอบด้านวิศวกรรมซอฟต์แวร์บน SWE-bench Verified ที่คว้าอันดับ 1 ในกลุ่ม Open Source ทั้งหมด และทำผลงานได้สูสีกับโมเดล Closed Source ระดับท็อปอย่าง GPT-5 (High) เลยทีเดียว ความสามารถนี้มาพร้อมกับฟีเจอร์เด็ดๆ ที่นักพัฒนาต้องร้องว้าว:
Hybrid Thinking Mode: ผู้ใช้สามารถเลือกสลับโหมดได้ว่าจะให้โมเดล "คิดวิเคราะห์" ก่อนตอบ หรือจะเอาคำตอบแบบทันทีทันใด
Vibe-coding Scaffolds: รองรับการทำงานร่วมกับเครื่องมืออย่าง Claude Code หรือ Cursor ได้เนียนกริบ สร้างหน้าเว็บ HTML ได้ในคลิกเดียว
Ultra-long Context: รองรับ Context Window สูงถึง 256k tokens ทำให้คุยต่อเนื่องหรือโยนเอกสารหนาเตอะเข้าไปประมวลผลได้สบาย
เบื้องหลังความเร็วระดับ 150 tokens/วินาที คือเทคนิคทางวิศวกรรมที่ชื่อว่า Multi-Token Prediction (MTP) และการผสมผสานระหว่าง Global Attention กับ Sliding Window Attention (SWA) ในอัตราส่วน 1:5 ซึ่งช่วยลดภาระการคำนวณลงมหาศาล แถมยังมีกระบวนการเทรนแบบใหม่ที่เรียกว่า MOPD (Multi-Teacher Online Policy Distillation) ที่ช่วยให้โมเดลเรียนรู้จาก "ครู" หลายคนพร้อมกัน ประหยัดทรัพยากรการเทรนไปได้กว่า 50 เท่าเมื่อเทียบกับวิธีเดิมๆ
เรื่องราคาคือน็อคเอาท์หมัดสุดท้าย เพราะ MiMo-V2-Flash เปิดราคามาแบบเป็นมิตรกับกระเป๋าตังค์สุดๆ โดยค่าบริการ Input อยู่ที่ US$0.1 (≈ 3.24 บาท) ต่อ 1 ล้านโทเคน และ Output ที่ US$0.3 (≈ 9.71 บาท) ต่อ 1 ล้านโทเคน ซึ่งถือว่าเป็นหนึ่งในโมเดลประสิทธิภาพสูงที่คุ้มค่าที่สุดในตลาดตอนนี้ เรียกว่าทั้งเร็ว ทั้งฉลาด และที่สำคัญคือ "ถูก" จนคู่แข่งต้องหันมามองค้อน
การมาของ MiMo-V2-Flash ถือเป็นการส่งสัญญาณว่ายุคของ Open Source AI ที่ทรงพลังเทียบเท่าโมเดลปิดกำลังเบ่งบานเต็มที่ ไม่ว่าจะเป็นการชนกับ K2-Thinking หรือ DeepSeek-V3.2 ก็ทำได้สมน้ำสมเนื้อ งานนี้ใครที่เคยบ่นว่าค่า API แพงหูฉี่ คงได้ยิ้มออกกันบ้างแล้ว ส่วนพวกเจ้าตลาดเดิมอาจจะต้องรีบกลับไปทำการบ้านมาใหม่ ไม่งั้นอาจโดนของดีราคาถูกแย่งซีนไปแบบงงๆ
หมายเหตุ: คำนวณอัตราแลกเปลี่ยนที่ 32.38 บาท ต่อ 1 ดอลลาร์สหรัฐ
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้