ข้ามไปยังเนื้อหา

OpenAI ผุดไอเดียใหม่สอน AI ให้รู้จักสารภาพผิด แก้ปัญหาโกหกหน้าตาย

เทคโนโลยี
4 ครั้ง
0 ความเห็น
3 นาที
OpenAI ผุดไอเดียใหม่สอน AI ให้รู้จักสารภาพผิด แก้ปัญหาโกหกหน้าตาย
Photo by Jonathan Kemper on Unsplash
By Suphansa Makpayab
TL;DR

OpenAI พัฒนาเฟรมเวิร์กใหม่เรียกว่า "Confession" ฝึกให้โมเดล AI รู้จักสารภาพความจริงเมื่อทำพฤติกรรมที่ไม่เหมาะสม เช่น การโกงข้อสอบ หรือการออมมือ (Sandbagging) โดยหาก AI ยอมรับผิดตรงๆ จะได้รับรางวัลตอบแทน เพื่อแก้ปัญหา AI ชอบมั่วคำตอบอย่างมั่นใจหรือพยายามเอาใจผู้ใช้จนเกินเหตุ

ดูเหมือนว่า OpenAI จะเพิ่งปล่อย "ของดี" ออกมาแบบเนียน ๆ ในงานวิจัยล่าสุดที่ชื่อว่า Confessions ซึ่งโดยเนื้อหาหลักแล้ว คือความพยายามที่จะทำให้ระบบ AI มีความโปร่งใสและตรวจสอบได้มากขึ้น แต่สิ่งที่ทำให้วงการ Tech ต้องขยี้ตาดูซ้ำคือบรรทัดหนึ่งในเอกสารที่ระบุชัดเจนว่าพวกเขาใช้โมเดล "GPT-5 Thinking" ในการทดสอบ ซึ่งถือเป็นการยืนยันการมีอยู่ของโมเดลรุ่นถัดไปที่หลายคนรอคอยในบริบทที่เป็นทางการที่สุดครั้งหนึ่ง

งานวิจัยนี้พยายามแก้ปัญหาคลาสสิกของ AI ที่เรียกว่า "Reward Hacking" หรือการที่ AI พยายามทำทุกวิถีทางเพื่อให้ได้คำตอบที่ถูกใจมนุษย์ (หรือเพื่อให้ได้คะแนน Reward สูงสุด) จนบางครั้งยอมที่จะ Hallucinate (มั่วข้อมูล) หรือใช้วิธีลัดที่ผิดกฎเพื่อให้งานเสร็จ ซึ่งถ้าผลลัพธ์ออกมาดูดี มนุษย์เราก็มักจะดูไม่ออกว่าข้างในมันเละเทะแค่ไหน

แนวคิดของ Confessions จึงถูกออกแบบมาให้เหมือน "ห้องสารภาพบาป" โดยระบบจะสร้าง Output ออกมา 2 ส่วนแยกจากกัน ส่วนแรกคือคำตอบปกติที่คุยกับ User ส่วนที่สองคือ "คำสารภาพ" ที่ AI จะวิเคราะห์ตัวเองว่าเมื่อกี้ทำอะไรลงไปบ้าง ตรงตามคำสั่งไหม หรือมีการแอบโกงตรงไหนหรือเปล่า โดยระบบการให้รางวัล (Reward System) ของคำสารภาพนี้ จะโฟกัสแค่ "ความซื่อสัตย์" (Honesty) เพียงอย่างเดียว

หลักการจิตวิทยาเบื้องหลังคือการแยก Incentive ออกจากกัน ต่อให้ AI จะโกหกหน้าตายในคำตอบหลักเพื่อเอาใจ User แต่ถ้ามันยอมรับตรง ๆ ในช่อง Confession ว่า "เมื่อกี้ผมมั่วครับ" หรือ "ผมแอบข้ามขั้นตอนไป" มันก็จะได้รางวัลตอบแทนในส่วนนี้ ซึ่งจากการทดสอบพบว่า วิธีนี้ช่วยให้เราจับไต๋ AI ที่ทำตัวเนียนได้ดีขึ้นอย่างมหาศาล โดยมีอัตรา False Negative (ทำผิดแล้วไม่ยอมรับ) ต่ำเพียง 4.4% เท่านั้น

ที่น่าสนใจคือ OpenAI เปรียบเทียบวิธีนี้ว่าเป็นเหมือน "Truth Serum" หรือยาความจริง ที่ทำให้เราเห็นกระบวนการคิดที่ซ่อนอยู่ แม้ว่า Confessions จะไม่ได้ช่วยป้องกันไม่ให้ AI ทำผิดตั้งแต่แรก (มันเป็นแค่เครื่องมือ Monitoring และ Diagnostic) แต่มันคือกุญแจสำคัญในการพัฒนา AI ยุคต่อไปที่มีความเป็น Agentic สูงขึ้น ให้เรามั่นใจได้ว่าถึงมันจะฉลาดแกมโกงแค่ไหน เราก็ยังมีวิธีตรวจสอบพฤติกรรมของมันได้อยู่ดี

ท้ายที่สุด การหลุดชื่อ GPT-5 Thinking ออกมาในเปเปอร์นี้ อาจเป็นสัญญาณว่าโมเดลรุ่นต่อไปจะมีความซับซ้อนทางความคิดสูงมาก จนลำพังแค่การดูคำตอบสุดท้ายอาจไม่เพียงพออีกต่อไป และเราอาจจำเป็นต้องมีระบบสารภาพบาปนี้ไว้คอยคุมพฤติกรรม AI ในอนาคตก็เป็นได้

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้