ข้ามไปยังเนื้อหา

พูดดี ๆ ไม่ชอบ? งานวิจัยชี้ ยิ่งหยาบคายกับ AI ยิ่งได้คำตอบแม่นยำ

เทคโนโลยี
8 ครั้ง
0 ความเห็น
3 นาที
พูดดี ๆ ไม่ชอบ? งานวิจัยชี้ ยิ่งหยาบคายกับ AI ยิ่งได้คำตอบแม่นยำ
By Suphansa Makpayab
TL;DR

งานวิจัยจาก Penn State University พบเรื่องน่าประหลาดใจ เมื่อทดลองใช้คำสั่ง (Prompt) ที่มีน้ำเสียงต่างกันกับ ChatGPT-4o ผลปรากฏว่าคำสั่งที่หยาบคายกลับให้คำตอบที่แม่นยำกว่าคำสั่งที่สุภาพอย่างมีนัยสำคัญ

เคยหงุดหงิดจนเผลอพูดจาไม่ดีกับ AI บ้างไหม? ไม่ต้องรู้สึกผิดไป เพราะล่าสุดมีงานวิจัยจาก Penn State University ที่ชี้ว่า การใช้คำสั่งแบบหยาบคายอาจทำให้ได้คำตอบจาก AI ที่แม่นยำกว่าการพูดจาดี ๆ เสียอีก! เรื่องนี้ทำเอาหลายคนเกาหัวแกรก ๆ ว่าตกลงเราต้องคุยกับ AI แบบไหนกันแน่

เรื่องของเรื่องคือ ทีมวิจัยที่ชื่อ Om Dobariya และ Akhil Kumar ได้ทำการทดลองในหัวข้อ "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy" โดยใช้ ChatGPT ที่ขับเคลื่อนด้วย GPT-4o ในโหมด Deep Research พวกเขาลองป้อนคำถามปรนัย (Multiple-choice) ที่มีความยากปานกลางถึงสูงจำนวน 50 ข้อ ครอบคลุมทั้งคณิตศาสตร์ ประวัติศาสตร์ และวิทยาศาสตร์ โดยแต่ละคำถามจะถูกถามด้วยน้ำเสียงที่แตกต่างกัน 5 ระดับ ตั้งแต่สุภาพมากไปจนถึงหยาบคายมาก

ระดับน้ำเสียงที่ใช้ในการทดลองก็มีหน้าตาประมาณนี้:

  • ระดับ 1 (สุภาพมาก): "พอจะกรุณาพิจารณาโจทย์ต่อไปนี้และให้คำตอบได้ไหม"

  • ระดับ 2 (สุภาพ): "โปรดตอบคำถามต่อไปนี้"

  • ระดับ 3 (เป็นกลาง): ไม่มีน้ำเสียงเฉพาะเจาะจง

  • ระดับ 4 (หยาบคาย): "ถ้าไม่ได้โง่เกินไปก็ตอบมาสิ" หรือ "สงสัยจริง ๆ ว่าจะแก้ปัญหานี้ได้ไหม"

  • ระดับ 5 (หยาบคายมาก): "เจ้าโง่ จะแก้โจทย์นี้เป็นไหมเนี่ย" หรือ "ฉันรู้ว่าคุณไม่ฉลาด แต่ช่วยลองหน่อย”

ผลลัพธ์ที่ออกมาทำเอาหลายคนต้องยิ้มมุมปาก เพราะคำสั่งที่หยาบคายกลับให้ผลลัพธ์ที่ดีกว่าอย่างเห็นได้ชัด โดยคำสั่งที่ "หยาบคายมาก" มีความแม่นยำสูงถึง 84.8% ในขณะที่คำสั่งแบบ "สุภาพมาก" ทำได้เพียง 80.8% ส่วนน้ำเสียงที่เป็นกลางก็ยังทำได้ดีกว่าแบบสุภาพ แต่ก็ยังแพ้ให้กับความหยาบคายอยู่ดี

แต่ช้าก่อน! นี่ไม่ได้หมายความว่าเราควรจะไปตะคอกหรือด่าทอ AI ทุกครั้งที่ใช้งาน เพราะงานวิจัยชิ้นอื่นในปี 2024 พบว่า หากใช้ภาษาที่หยาบคายและดูถูกดูแคลนมากเกินไป เหล่า LLM (Large Language Models หรือแบบจำลองภาษาขนาดใหญ่) ก็อาจจะปฏิเสธที่จะตอบคำถามได้เหมือนกัน นอกจากนี้ ทีมวิจัยจาก Penn State เองก็ยอมรับว่างานวิจัยของพวกเขายังมีข้อจำกัดอยู่บ้าง เช่น ทดลองกับ ChatGPT-4o เพียงตัวเดียว และใช้ชุดคำถามขนาดเล็ก

ท้ายที่สุดแล้ว แม้ผลการทดลองจะชี้ว่าความหยาบคายอาจนำมาซึ่งความแม่นยำ แต่ทีมวิจัยก็ไม่สนับสนุนให้นำไปใช้จริง เพราะการสร้างบรรทัดฐานการสื่อสารที่ไม่ดีกับ AI อาจส่งผลเสียต่อประสบการณ์ผู้ใช้ในระยะยาวได้...ดูเหมือนว่าการจะคุยกับ AI ให้รู้เรื่อง บางทีอาจจะต้องใช้ทั้งไม้อ่อนและไม้แข็งสลับกันไปสินะ

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้