ข้ามไปยังเนื้อหา

ลืม RAG ไปได้เลย? Mastra โชว์เทคนิค Observational Memory จำแม่นกว่าเดิม ลดต้นทุน 10 เท่า

เทคโนโลยี
1 ครั้ง
0 ความเห็น
2 นาที
ลืม RAG ไปได้เลย? Mastra โชว์เทคนิค Observational Memory จำแม่นกว่าเดิม ลดต้นทุน 10 เท่า
Photo by Google DeepMind on Pexels
By Suphansa Makpayab
TL;DR

Mastra เปิดตัว Observational Memory เทคนิคหน่วยความจำ AI แบบใหม่ ไม่ง้อ Vector DB ช่วยลดต้นทุน Token 10 เท่า พร้อมทำคะแนนชนะ RAG ขาดลอยในการจำระยะยาว

วงการพัฒนา AI Agent อาจถึงจุดเปลี่ยนสำคัญเมื่อ Mastra สตาร์ทอัพที่ก่อตั้งโดยทีมผู้สร้าง Gatsby Framework เปิดตัวเทคโนโลยีใหม่ที่เรียกว่า Observational Memory ซึ่งออกแบบมาเพื่อแก้ปัญหาคอขวดของระบบ RAG (Retrieval-Augmented Generation) แบบเดิมๆ โดยเทคนิคใหม่นี้ใช้วิธีการบีบอัดประวัติการสนทนาให้เป็น "บันทึกช่วยจำ" (Observation Log) แทนการค้นหาข้อมูลใหม่ตลอดเวลา ช่วยให้ AI จดจำบริบทได้แม่นยำขึ้นและลดต้นทุนการใช้งาน Token ได้สูงสุดถึง 10 เท่า

หลักการทำงานที่น่าสนใจคือระบบจะใช้ AI เบื้องหลัง 2 ตัวทำงานร่วมกัน ได้แก่ Observer ที่คอยจับตาดูบทสนทนาเพื่อสรุปประเด็นสำคัญทุกๆ 30,000 Token และ Reflector ที่จะคอยจัดระเบียบข้อมูลซ้ำซ้อน วิธีนี้ทำให้ไม่ต้องพึ่งพา Vector Database ที่ซับซ้อน ผลการทดสอบพบว่าสามารถบีบอัดข้อมูลข้อความได้ 3-6 เท่า และข้อมูลจากการใช้เครื่องมือ (Tools) ได้มากถึง 5-40 เท่า ที่สำคัญคือทำคะแนนทดสอบ LongMemEval ได้สูงถึง 94.87% (ทดสอบบน GPT-5-mini) ซึ่งชนะระบบ RAG ของ Mastra เองที่ทำได้เพียง 80.05%

จุดเด่นสำคัญที่ทำให้เทคนิคนี้น่าจับตามองคือความเสถียรของ Context Window ที่เอื้อให้ระบบสามารถใช้ฟีเจอร์ Prompt Caching ของผู้ให้บริการอย่าง OpenAI หรือ Anthropic ได้อย่างเต็มประสิทธิภาพ ต่างจาก RAG ทั่วไปที่ข้อมูลเปลี่ยนตลอดเวลาจน Cache ไม่ติด เทคนิคนี้จึงเหมาะมากสำหรับ AI Agent ในระดับองค์กรที่ต้องทำงานต่อเนื่องยาวนานเป็นสัปดาห์หรือเป็นเดือน เช่น ระบบช่วยตอบลูกค้าใน CMS หรือ AI สำหรับงาน SRE ที่ต้องจำได้ว่าเคยตัดสินใจอะไรไปบ้างในอดีตโดยไม่ลืมกลางคัน

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้