
MIT โชว์ RLM เทคนิคใหม่ช่วย AI อ่านรวดเดียว 10 ล้าน Token โดยไม่ง้อ Context Window
นักวิจัย MIT เปิดตัว Recursive Language Models (RLMs) เฟรมเวิร์กใหม่ที่ช่วยให้ AI ประมวลผลข้อมูลมหาศาลระดับ 10 ล้าน Tokens ได้โดยไม่ต้องขยาย Context Window และไม่เกิดอาการ Context Rot โดยใช้วิธีให้ AI เขียนโค้ดเข้าไปเจาะดูข้อมูลภายนอกแทนการจำทั้งหมด ผลทดสอบชี้ชัดว่าเอาชนะโมเดลปกติที่ตายสนิทในการอ่านข้อมูลยาว ๆ ได้อย่างขาดลอย










