ข้ามไปยังเนื้อหา

Google เปิดตัว T5Gemma 2 โมเดล Encoder-Decoder รุ่นใหม่ เก่งรอบด้านในไซส์กะทัดรัด

เทคโนโลยี
1 ครั้ง
0 ความเห็น
2 นาที
Google เปิดตัว T5Gemma 2 โมเดล Encoder-Decoder รุ่นใหม่ เก่งรอบด้านในไซส์กะทัดรัด
Image Credit: Google
By Suphansa Makpayab
TL;DR

Google เปิดตัว T5Gemma 2 โมเดล AI สถาปัตยกรรม Encoder-Decoder รุ่นล่าสุดที่พัฒนาต่อยอดจาก Gemma 3 โดดเด่นด้วยความสามารถ Multimodal และรองรับ Long-context ถึง 128K tokens มาพร้อมขนาดกะทัดรัด (270M, 1B, 4B) ที่ปรับจูนสถาปัตยกรรมให้ประหยัดทรัพยากรแต่ประสิทธิภาพสูงกว่าเดิม เหมาะสำหรับการรันบนอุปกรณ์และการนำไปพัฒนาต่อ

วงการ AI ยังคงเดือดไม่พัก ล่าสุด Google ปล่อยของใหม่อย่าง T5Gemma 2 ซึ่งถือเป็นการอัปเกรดครั้งสำคัญของตระกูล Encoder-Decoder โดยรอบนี้ไม่ใช่แค่การเอาของเก่ามาเทรนใหม่ (Re-training) แต่เป็นการยกเครื่องสถาปัตยกรรมภายในโดยดึงฟีเจอร์เด็ด ๆ จาก Gemma 3 มาใส่ไว้เพียบ ทำให้ได้โมเดลที่ทั้งฉลาดและประหยัดทรัพยากรจนน่าตกใจ

จุดเด่นที่ทำให้ T5Gemma 2 น่าจับตามองคือการเป็นโมเดล Encoder-Decoder ตัวแรกที่รองรับทั้ง Multimodal (ประมวลผลได้ทั้งภาพและข้อความ) และ Long-context ได้ยาวถึง 128K tokens โดย Google ปล่อยออกมาให้เลือกใช้ 3 ขนาด ได้แก่ 270M, 1B และ 4B parameters ซึ่งไซส์ระดับนี้ถือว่า "กะทัดรัด" มากเมื่อเทียบกับความสามารถ เหมาะสุด ๆ สำหรับการนำไปรันบนอุปกรณ์ (On-device) หรือการทดลองที่ต้องการความรวดเร็วในการ Deploy

ในเชิงเทคนิค Google ได้งัดลูกเล่นใหม่อย่างการใช้ Tied Word Embeddings และ Merged Attention เข้ามาช่วยลดจำนวนพารามิเตอร์ที่ไม่จำเป็น ทำให้โมเดลเบาขึ้นแต่ยังคงประสิทธิภาพการทำงานที่ยอดเยี่ยม ที่น่าสนใจคือผลการทดสอบชี้ว่า T5Gemma 2 สามารถทำคะแนนแซงหน้า Gemma 3 (ที่เป็นแบบ Decoder-only) ได้ในหลายด้าน โดยเฉพาะงานที่ต้องใช้การวิเคราะห์บริบทขนาดยาวและการเขียนโค้ด แถมยังรองรับภาษาต่าง ๆ ได้มากกว่า 140 ภาษาทั่วโลกอีกด้วย

สำหรับนักพัฒนาที่เริ่มคันไม้คันมือ ตอนนี้ Google ปล่อย Pre-trained Checkpoints ออกมาให้โหลดไปลองเล่นกันได้แล้วทั้งบน Kaggle, Hugging Face และ Vertex AI งานนี้ใครที่กำลังมองหาโมเดลไซส์เล็กแต่สเปกครบเครื่องเพื่อเอาไป Fine-tune ต่อ ถือเป็นตัวเลือกที่น่าสนใจไม่น้อยทีเดียว

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้