Samsung โชว์ AI จิ๋ว 'TRM' เล็กแต่เก๋า ล้มยักษ์อย่าง Gemini 2.5 Pro

Samsung เปิดตัว AI โมเดลขนาดเล็กชื่อ Tiny Recursive Model (TRM) ที่มีพารามิเตอร์เพียง 7 ล้านตัว แต่กลับทำผลงานได้ดีกว่าหรือเทียบเท่าโมเดลภาษาขนาดใหญ่ (LLM) อย่าง Gemini 2.5 Pro ในการแก้ปัญหาเชิงตรรกะ ด้วยเทคนิคการทำงานซ้ำที่ให้โมเดลเรียนรู้จากผลลัพธ์ของตัวเอง
ในขณะที่แผนกกล้องอาจจะดูเงียบ ๆ ไปบ้าง แต่แผนก AI ของ Samsung กลับส่งเสียงดังสนั่น ด้วยการเปิดตัวโมเดล AI น้องใหม่ไซส์จิ๋ว ที่ดันทำผลงานได้ดีกว่าโมเดลภาษาขนาดใหญ่ (Large Language Models หรือ LLMs) ที่มีขนาดใหญ่กว่าเป็นหมื่นเท่า! งานนี้ทำเอาหลายค่ายต้องหันมามองกันเลยทีเดียว
ในงานวิจัยที่ชื่อว่า “Less is More: Recursive Reasoning with Tiny Networks” ทาง Samsung ได้เผยสถาปัตยกรรมของโมเดลใหม่ที่ชื่อว่า Tiny Recursive Model (TRM) ซึ่งมีขนาดเล็กจิ๋วหลิว ด้วยพารามิเตอร์เพียง 7 ล้านตัวเท่านั้น เทียบกับ LLMs ตัวท็อป ๆ ที่มีกันเป็นพันล้านตัว หัวใจสำคัญของมันคือการใช้เทคนิค “การให้เหตุผลแบบเรียกซ้ำ” (Recursive Reasoning) คือให้โมเดลนำผลลัพธ์ของตัวเองกลับมาเป็นโจทย์เพื่อคิดในขั้นต่อไปวนไปเรื่อย ๆ คล้ายกับคนเราที่อ่านทวนงานเขียนของตัวเองแล้วแก้ไขข้อผิดพลาดไปทีละรอบ ทำให้มันสามารถจำลองสถาปัตยกรรมที่ลึกซึ้งกว่าได้โดยไม่ต้องใช้หน่วยความจำหรือพลังประมวลผลมหาศาล
ที่น่าสนใจคือ ทีมวิจัยพบว่าการเพิ่มเลเยอร์ให้โมเดลกลับทำให้ประสิทธิภาพลดลงเพราะเกิด Overfitting (การที่โมเดลเรียนรู้ข้อมูลชุดฝึกได้ดีเกินไปจนไม่สามารถทำงานกับข้อมูลใหม่ได้) แต่การลดเลเยอร์ลงแล้วเพิ่มจำนวนรอบการทำงานซ้ำกลับช่วยให้ TRM ทำงานได้ดีขึ้นอย่างเห็นได้ชัด สมกับชื่อเปเปอร์ว่า “น้อยแต่มาก” จริง ๆ
สำหรับผลลัพธ์ก็ต้องบอกว่าน่าประทับใจ เพราะ TRM สามารถทำคะแนนความแม่นยำในการแก้ปัญหาเชิงตรรกะได้สูงลิ่ว ไม่ว่าจะเป็น:
- Sudoku-Extreme: แม่นยำ 87.4%
- Maze-Hard puzzles: แม่นยำ 85%
- ARC-AGI-1: แม่นยำ 45%
- ARC-AGI-2: แม่นยำ 8%
ซึ่งคะแนนเหล่านี้ไม่เพียงแต่สูงกว่า แต่ยังเทียบชั้นหรือดีกว่า LLMs ยักษ์ใหญ่อย่าง DeepSeek R1, Google Gemini 2.5 Pro และ OpenAI o3-mini ทั้งที่ใช้พารามิเตอร์น้อยกว่าแบบเทียบกันไม่ติดฝุ่น งานนี้พิสูจน์ให้เห็นแล้วว่าของใหญ่ก็ไม่ได้แปลว่าจะดีกว่าเสมอไป บางทีการกลับสู่ความเรียบง่ายอาจเป็นคำตอบที่หลายคนมองข้ามไปก็ได้
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้