
เทคโนโลยี
arXiv•7 มี.ค. 2569
MIT เปิด Attention Matching บีบ KV Cache 50 เท่า Accuracy ไม่ร่วง
MIT เปิดงานวิจัยใหม่ชื่อ Attention Matching ที่ตั้งเป้าจัดการคอขวดใหญ่ของ LLMs แบบตรงจุด นั่นคือ KV Cache (หน่วยความจำทำงานของโมเดลระหว่างสร้างคำตอบ)...
โดย Suphansa Makpayab
6 นาที0