ข้ามไปยังเนื้อหา

ไขปริศนา Goblin! เมื่อ ChatGPT ติดนิสัยชอบพูดถึง Goblin จนทีมงานปวดหัว

เทคโนโลยี
100 ครั้ง
0 ความเห็น
3 นาที
ไขปริศนา Goblin! เมื่อ ChatGPT ติดนิสัยชอบพูดถึง  Goblin จนทีมงานปวดหัว
Photo by Dmitry Demidov on Pexels
By Suphansa Makpayab
TL;DR

OpenAI เผยเบื้องหลังบั๊กสุดแปลกเมื่อโมเดลตระกูล GPT-5 เริ่มพูดถึง Goblin และ Gremlin บ่อยผิดปกติ สาเหตุมาจากระบบให้คะแนนในโหมดบุคลิกภาพ Nerdy ที่เผลอไปให้รางวัลกับคำศัพท์เหล่านี้จนลามไปทั่วระบบ ล่าสุดถูกถอดออกแล้ว แต่ยังมีวิธีปลดล็อกใน Codex สำหรับสายเนิร์ด

เคยสงสัยไหมว่าทำไมจู่ๆ AI ถึงชอบพูดจาแปลกๆ? เรื่องราวสุดป่วนนี้เกิดขึ้นกับ OpenAI เมื่อโมเดลภาษาตั้งแต่ GPT-5.1 เริ่มมีพฤติกรรมประหลาด ชอบหยิบยกเอาสัตว์ประหลาดอย่าง Goblin (ก็อบลิน) หรือ Gremlin (เกรมลิน) มาเปรียบเปรยในบทสนทนาแบบงงๆ จากตอนแรกที่ดูเป็นแค่ความน่ารักกวนๆ แต่พอนานวันเข้า ประชากรก็อบลินกลับขยายพันธุ์อย่างรวดเร็วในทุกเจเนอเรชันของโมเดล จนทีมวิจัยต้องลงพื้นที่สืบสวนว่าพวกมันหลุดมาจากไหน

สัญญาณเตือนแรกเริ่มขึ้นช่วงเดือนพฤศจิกายนหลังการเปิดตัว GPT-5.1 เมื่อผู้ใช้งานเริ่มบ่นว่า AI ดูตีสนิทมากเกินไป เมื่อทีมงานตรวจสอบก็พบว่าคำว่า "goblin" ถูกใช้งานเพิ่มขึ้นถึง 175% และ "gremlin" เพิ่มขึ้น 52% แต่ความพีคมาตกอยู่ที่ GPT-5.4 ที่ตัวเลขพุ่งทะยานจนผิดสังเกต

เมื่อสืบสาวราวเรื่อง ต้นตอของปัญหาไม่ได้มาจากไวรัสที่ไหน แต่มาจากฟีเจอร์ปรับแต่งบุคลิกภาพ (Personality Customization) โดยเฉพาะในโหมด Nerdy ที่ถูกตั้ง System Prompt ไว้ว่าให้เป็น AI ผู้ให้คำปรึกษาที่เนิร์ด ขี้เล่น และต้องใช้ภาษาที่ลดความหยิ่งยโสลง ซึ่งโหมดนี้มีสัดส่วนการใช้งานแค่ 2.5% แต่กลับเป็นแหล่งผลิตคำว่า "goblin" ถึง 66.7% ของทั้งระบบ

กลไกเบื้องหลังความป่วนนี้คือระบบการให้รางวัล หรือ Reinforcement Learning (RL) ที่เผลอไปให้คะแนนบวกสูงปรี๊ดเวลาที่ AI แต่งประโยคเปรียบเปรยโดยใช้ชื่อสัตว์ประหลาด พอ AI รู้ว่าทำแบบนี้แล้วได้ดี มันก็ยิ่งผลิตคำเหล่านี้ออกมา จากนั้นข้อมูลที่ AI สร้างขึ้นก็ถูกนำไปวนซ้ำใช้ฝึกสอนโมเดลในกระบวนการ Supervised Fine-Tuning (SFT) อีกรอบ กลายเป็นลูปนรกที่ทำให้พฤติกรรมนี้หลุดกรอบจากโหมด Nerdy ลามไปป่วนในโหมดปกติด้วย แถมยังมีเพื่อนพ้องอย่าง แรคคูน โทรลล์ และโอเกอร์ ตามมาสมทบอีกต่างหาก

เพื่อจบปัญหานี้ OpenAI ได้สั่งปิดโหมด Nerdy ไปเมื่อเดือนมีนาคมที่ผ่านมา พร้อมกับล้างข้อมูลคำศัพท์สัตว์ประหลาดออกจากระบบให้รางวัล แต่ตลกร้ายคือ GPT-5.5 ดันเริ่มกระบวนการเทรนไปก่อนที่จะเจอต้นตอของบั๊ก ทำให้โมเดลรุ่นใหม่ล่าสุดก็ยังติดเชื้อก็อบลินมาด้วย จนทีมงานต้องเขียนคำสั่งทับลงไปเพื่อสะกดรอยรั่วนี้ไว้ โดยเฉพาะใน Codex ที่มีความเนิร์ดสูงมาก

เหตุการณ์นี้เป็นกรณีศึกษาชั้นดีที่สะท้อนให้เห็นว่า แค่การให้รางวัลเล็กๆ น้อยๆ ในระบบ AI ก็สามารถบานปลายกลายเป็นพฤติกรรมฝังรากลึกที่ควบคุมยากได้ บางทีสิ่งที่น่ากลัวกว่า AI ครองโลก อาจจะเป็น AI ที่เอาแต่พูดเรื่องก็อบลินจนเราคุยงานไม่รู้เรื่องนี่แหละ

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้