ข้ามไปยังเนื้อหา

Apple เผยผลทดสอบชิป M5 รัน AI แบบ Local เร็วกว่า M4 สูงสุด 27%

เทคโนโลยี
1 ครั้ง
0 ความเห็น
2 นาที
Apple เผยผลทดสอบชิป M5 รัน AI แบบ Local เร็วกว่า M4 สูงสุด 27%
Image Credit: Apple
By Suphansa Makpayab
TL;DR

Apple เปิดเผยผลทดสอบประสิทธิภาพชิป M5 เทียบกับ M4 ในการรัน AI แบบ Local ผ่านเฟรมเวิร์ก MLX พบว่า M5 ประมวลผลข้อความได้เร็วกว่า 19-27% และสร้างรูปภาพได้เร็วกว่าถึง 3.8 เท่า ด้วยอานิสงส์จาก Memory Bandwidth ที่สูงขึ้นและ GPU Neural Accelerators ชุดใหม่

ล่าสุดในบล็อก Machine Learning Research ของ Apple ได้มีการเปิดเผยข้อมูลที่น่าสนใจเกี่ยวกับประสิทธิภาพของชิป Apple Silicon รุ่นใหม่อย่าง M5 เมื่อนำมาเทียบกับรุ่นพี่ M4 ในโจทย์การรัน Local LLM (Large Language Model หรือโมเดลภาษาขนาดใหญ่ที่ประมวลผลบนเครื่องโดยตรงไม่ต้องง้ออินเทอร์เน็ต) ซึ่งผลลัพธ์ที่ได้แสดงให้เห็นถึงพัฒนาการที่ก้าวกระโดดอย่างชัดเจน

ก่อนจะไปดูตัวเลข ต้องปูพื้นฐานกันสักนิดว่า Apple มีอาวุธลับคือ MLX ซึ่งเป็น Framework แบบ Open-source ที่ออกแบบมาเพื่อให้ชิป Apple Silicon รันงานด้าน Machine Learning ได้อย่างมีประสิทธิภาพสูงสุด จุดเด่นคือการดึงศักยภาพของ Unified Memory Architecture มาใช้ ทำให้ CPU และ GPU สามารถเข้าถึงข้อมูลชุดเดียวกันได้ทันทีโดยไม่ต้องเสียเวลาโยกย้ายข้อมูลไปมา ซึ่งช่วยให้การเทรนและการรันโมเดลทำได้ลื่นไหลขึ้นมาก

ในการทดสอบครั้งนี้ Apple ใช้แพ็กเกจ MLX LM เพื่อรันโมเดลยอดนิยมอย่าง Qwen และ GPT OSS บนเครื่อง MacBook Pro ชิป M5 เทียบกับ M4 โดยมีการใช้เทคนิค Quantization (การบีบอัดโมเดลให้เล็กลงเพื่อประหยัดหน่วยความจำแต่ยังคงประสิทธิภาพไว้) เข้ามาช่วยด้วย เพื่อวัดความเร็วในการตอบสนองตั้งแต่เริ่มได้รับคำสั่งไปจนถึงการสร้างคำตอบออกมา

ผลการทดสอบระบุว่า ชิป M5 สามารถทำความเร็วในการสร้างข้อความ (Token Generation) ได้ดีกว่า M4 ประมาณ 19-27% ปัจจัยสำคัญมาจาก Memory Bandwidth ของ M5 ที่เพิ่มขึ้นเป็น 153GB/s (สูงกว่า M4 ที่ทำได้ 120GB/s ถึง 28%) นอกจากนี้ M5 ยังมาพร้อมกับ GPU Neural Accelerators ชุดใหม่ที่ออกแบบมาเพื่อจัดการการคำนวณแบบ Matrix-multiplication โดยเฉพาะ ซึ่งเป็นหัวใจสำคัญของงานด้าน AI

แต่สิ่งที่ทำให้หลายคนต้องร้องว้าวคือผลการทดสอบด้านการสร้างรูปภาพ (Image Generation) ที่ชิป M5 ทำความเร็วได้เหนือกว่า M4 ถึงกว่า 3.8 เท่า เรียกว่าทิ้งห่างแบบไม่เห็นฝุ่น ใครที่เป็นสาย Dev หรือต้องทำงานกับ AI บนเครื่อง Local งานนี้เห็นตัวเลขแล้วคงมีอาการกระเป๋าตังค์สั่นระริกกันบ้างแน่นอน

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้