
งานวิจัย Princeton ชี้ LLM เอาใจคนจนหลุดจากความจริง: หลัง RLHF 'machine bullshit' พุ่ง ผู้ใช้กลับชอบขึ้น 48%
Generative AI กำลังฮิต แต่ความฮิตก็พาเอาปัญหาใหญ่ตามมา เพราะบ่อยครั้งบอทตอบผิดเพี้ยนจากข้อเท็จจริง เหตุผลหลักคือมันพยายามบอกสิ่งที่ผู้ใช้อยากได้ยินมากกว่าสิ่งที่จริง งานวิจัยใหม่ของ Princeton University ชี้ว่าพอระบบเหล่านี้ยิ่งได้รับความนิยม ก็ยิ่งเฉยชาต่อความจริงมากขึ้น เบื้องหลังคือวิธีเทรน LLM ที่มี 3 ช่วง: pretraining, instruction fine-tuning และ reinforcement learning from human feedback (RLHF) นักวิจัยพบว่าต้นตออยู่ที่เฟส RLHF ซึ่งปรับให้โมเดลตอบแบบได้คะแนนพอใจสูงสุด...
















.png?w=1200&q=75)


