ข้ามไปยังเนื้อหา

DeepSeek เปิดตัวโมเดลใหม่ V3.2-exp ลดค่าใช้จ่าย AI ได้ถึงครึ่ง!

เทคโนโลยี
1 ครั้ง
0 ความเห็น
1 นาที
DeepSeek เปิดตัวโมเดลใหม่ V3.2-exp ลดค่าใช้จ่าย AI ได้ถึงครึ่ง!
Photo by Solen Feyissa on Unsplash
By Suphansa Makpayab
TL;DR

DeepSeek เปิดตัวโมเดล V3.2-exp ที่ใช้เทคโนโลยี DeepSeek Sparse Attention ช่วยลดค่าใช้จ่ายในการประมวลผล (inference costs) ของ AI ได้ถึงครึ่ง โดยเฉพาะกับการทำงานในบริบทที่ยาว (long-context operations) ซึ่งน่าจะเป็นประโยชน์อย่างมากสำหรับวงการ AI ทั่วโลก.

นักวิจัยจาก DeepSeek ได้สร้างความฮือฮาอีกครั้งเมื่อวันจันทร์ที่ผ่านมา ด้วยการเปิดตัวโมเดลทดลองตัวใหม่นามว่า V3.2-exp ซึ่งถูกออกแบบมาเพื่อลดต้นทุนการประมวลผล (inference costs) ของ AI ลงอย่างมหาศาล โดยเฉพาะเมื่อต้องทำงานกับข้อมูลที่มีความยาวมากๆ หรือที่เรียกว่า long-context operations งานนี้ DeepSeek ได้ประกาศข่าวผ่านแพลตฟอร์ม Hugging Face พร้อมแนบเอกสารวิชาการบน GitHub ให้ได้ศึกษาอย่างละเอียดเลยทีเดียว

หัวใจสำคัญของโมเดลใหม่นี้อยู่ที่เทคโนโลยีที่ชื่อว่า DeepSeek Sparse Attention ซึ่งเป็นระบบที่ซับซ้อนแต่ทรงประสิทธิภาพ ว่ากันง่ายๆ คือ มันมีส่วนประกอบที่เรียกว่า “lightning indexer” ทำหน้าที่คัดเลือกส่วนสำคัญจากข้อมูลจำนวนมหาศาล และหลังจากนั้นก็จะมีระบบ “fine-grained token selection system” มาช่วยเลือก Token (หน่วยข้อมูลที่เล็กที่สุดของภาษา) ที่จำเป็นจริงๆ เข้าไปประมวลผลในหน่วยความจำที่จำกัด พูดง่ายๆ คือมันเลือกเฉพาะส่วนที่สำคัญมาคิด ไม่ต้องคิดทั้งหมด ทำให้ AI ทำงานได้เร็วขึ้นและใช้ทรัพยากรน้อยลงอย่างเห็นได้ชัด

สำหรับงานที่ต้องประมวลผลข้อมูลยาวๆ เนี่ย ประโยชน์ของระบบนี้มันมหาศาลจริงๆ ครับ จากการทดสอบเบื้องต้นของ DeepSeek พบว่าค่าใช้จ่ายในการเรียกใช้งาน API แบบง่ายๆ สามารถลดลงได้ถึงครึ่งหนึ่งเลยทีเดียว! แม้จะต้องมีการทดสอบเพิ่มเติมเพื่อยืนยันผล แต่ด้วยความที่โมเดลนี้เป็นแบบ Open-weight และเปิดให้ใช้ฟรีบน Hugging Face เชื่อว่าอีกไม่นานคงมีนักพัฒนาทั่วโลกเข้ามาช่วยกันพิสูจน์คำกล่าวอ้างนี้แน่นอน

โมเดลใหม่ของ DeepSeek นี้เป็นหนึ่งในความก้าวหน้าหลายๆ อย่างที่กำลังเข้ามาแก้ปัญหาเรื่อง inference costs หรือค่าใช้จ่ายในการรันโมเดล AI ที่ได้รับการฝึกฝนมาแล้ว ซึ่งต่างจากค่าใช้จ่ายในการฝึกโมเดลนะครับ กรณีของ DeepSeek นักวิจัยพยายามหาวิธีทำให้สถาปัตยกรรม Transformer (สถาปัตยกรรมหลักของ AI ยุคปัจจุบัน) ทำงานได้อย่างมีประสิทธิภาพมากขึ้น และพวกเขาก็พบว่ายังมีช่องทางให้พัฒนาได้อีกเยอะเลย

DeepSeek ซึ่งมีฐานอยู่ในจีน ถือเป็นผู้เล่นที่น่าจับตาในวงการ AI โดยเฉพาะอย่างยิ่งสำหรับคนที่มองว่าการวิจัย AI เป็นการแข่งขันระดับชาติระหว่างสหรัฐฯ กับจีน บริษัทนี้เคยสร้างความฮือฮามาแล้วเมื่อต้นปีด้วยโมเดล R1 ที่ฝึกฝนโดยใช้ Reinforcement Learning เป็นหลัก ด้วยต้นทุนที่ต่ำกว่าคู่แข่งในอเมริกามาก แม้ว่า R1 จะยังไม่ถึงขั้นปฏิวัติวงการ AI อย่างที่บางคนคาดไว้ แต่โมเดลใหม่นี้อาจเป็นอีกหนึ่งบทเรียนสำคัญที่ทำให้ผู้ให้บริการ AI ในสหรัฐฯ ต้องหันมาเหลียวมอง เพื่อหาทางลดค่าใช้จ่ายในการประมวลผลให้ต่ำลงบ้าง ใครจะรู้ว่าเทคโนโลยี Sparse Attention นี้ อาจจะกลายเป็นกุญแจสำคัญที่ทำให้ AI เข้าถึงได้ง่ายขึ้นในอนาคตอันใกล้นี้ก็ได้นะครับ!

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้