Google เปิดตัว T5Gemma 2 โมเดล Encoder-Decoder รุ่นใหม่ เก่งรอบด้านในไซส์กะทัดรัด

Google เปิดตัว T5Gemma 2 โมเดล AI สถาปัตยกรรม Encoder-Decoder รุ่นล่าสุดที่พัฒนาต่อยอดจาก Gemma 3 โดดเด่นด้วยความสามารถ Multimodal และรองรับ Long-context ถึง 128K tokens มาพร้อมขนาดกะทัดรัด (270M, 1B, 4B) ที่ปรับจูนสถาปัตยกรรมให้ประหยัดทรัพยากรแต่ประสิทธิภาพสูงกว่าเดิม เหมาะสำหรับการรันบนอุปกรณ์และการนำไปพัฒนาต่อ
วงการ AI ยังคงเดือดไม่พัก ล่าสุด Google ปล่อยของใหม่อย่าง T5Gemma 2 ซึ่งถือเป็นการอัปเกรดครั้งสำคัญของตระกูล Encoder-Decoder โดยรอบนี้ไม่ใช่แค่การเอาของเก่ามาเทรนใหม่ (Re-training) แต่เป็นการยกเครื่องสถาปัตยกรรมภายในโดยดึงฟีเจอร์เด็ด ๆ จาก Gemma 3 มาใส่ไว้เพียบ ทำให้ได้โมเดลที่ทั้งฉลาดและประหยัดทรัพยากรจนน่าตกใจ
จุดเด่นที่ทำให้ T5Gemma 2 น่าจับตามองคือการเป็นโมเดล Encoder-Decoder ตัวแรกที่รองรับทั้ง Multimodal (ประมวลผลได้ทั้งภาพและข้อความ) และ Long-context ได้ยาวถึง 128K tokens โดย Google ปล่อยออกมาให้เลือกใช้ 3 ขนาด ได้แก่ 270M, 1B และ 4B parameters ซึ่งไซส์ระดับนี้ถือว่า "กะทัดรัด" มากเมื่อเทียบกับความสามารถ เหมาะสุด ๆ สำหรับการนำไปรันบนอุปกรณ์ (On-device) หรือการทดลองที่ต้องการความรวดเร็วในการ Deploy
ในเชิงเทคนิค Google ได้งัดลูกเล่นใหม่อย่างการใช้ Tied Word Embeddings และ Merged Attention เข้ามาช่วยลดจำนวนพารามิเตอร์ที่ไม่จำเป็น ทำให้โมเดลเบาขึ้นแต่ยังคงประสิทธิภาพการทำงานที่ยอดเยี่ยม ที่น่าสนใจคือผลการทดสอบชี้ว่า T5Gemma 2 สามารถทำคะแนนแซงหน้า Gemma 3 (ที่เป็นแบบ Decoder-only) ได้ในหลายด้าน โดยเฉพาะงานที่ต้องใช้การวิเคราะห์บริบทขนาดยาวและการเขียนโค้ด แถมยังรองรับภาษาต่าง ๆ ได้มากกว่า 140 ภาษาทั่วโลกอีกด้วย
สำหรับนักพัฒนาที่เริ่มคันไม้คันมือ ตอนนี้ Google ปล่อย Pre-trained Checkpoints ออกมาให้โหลดไปลองเล่นกันได้แล้วทั้งบน Kaggle, Hugging Face และ Vertex AI งานนี้ใครที่กำลังมองหาโมเดลไซส์เล็กแต่สเปกครบเครื่องเพื่อเอาไป Fine-tune ต่อ ถือเป็นตัวเลือกที่น่าสนใจไม่น้อยทีเดียว
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้