AI ก็เลือกที่รักมักที่ชัง! ChatGPT เปลี่ยนนามสกุล 'Singha' เป็น 'Sharma' เพราะติดอคติวรรณะ

Dhiraj Singha นักวิจัยชาวอินเดียพบว่า ChatGPT เปลี่ยนนามสกุลของเขาจาก 'Singha' ซึ่งเป็นวรรณะ Dalit ไปเป็น 'Sharma' ซึ่งเป็นวรรณะสูงกว่า โดยอ้างว่านามสกุล Sharma พบได้บ่อยกว่าในแวดวงวิชาการ การค้นพบนี้ชี้ให้เห็นถึงอคติวรรณะที่ฝังลึกในโมเดล AI ของ OpenAI รวมถึง GPT-5 และ Sora ซึ่งอาจส่งผลกระทบต่อสังคมในวงกว้างหากไม่ได้รับการแก้ไข
เรื่องราวเริ่มต้นขึ้นเมื่อ Dhiraj Singha นักวิจัยด้านสังคมวิทยาชาวอินเดียที่กำลังจะสมัครทุนวิจัยหลังปริญญาเอกในเมือง Bengaluru เมื่อเดือนมีนาคมที่ผ่านมา แกอยากให้ภาษาอังกฤษในใบสมัครเป๊ะปังไร้ที่ติ เลยพึ่งพา ChatGPT ให้ช่วยเกลาสำนวน แต่สิ่งที่ได้กลับมาไม่ใช่แค่ภาษาที่สวยงามขึ้น แต่ AI ดันเปลี่ยนนามสกุลของแกจาก 'Singha' ไปเป็น 'Sharma' ซะอย่างนั้น! ที่น่าตกใจคือ นามสกุล 'Sharma' เนี่ยเป็นของคนวรรณะสูงในอินเดีย ส่วน 'Singha' ของแกบ่งบอกว่าเป็นวรรณะ Dalit หรือวรรณะที่ถูกกดขี่มาแต่โบราณ ตรงนี้ทำให้ Singha ถึงกับสะอึก เพราะ AI มันสะท้อนสังคมที่มีอคติวรรณะอย่างจังเลยล่ะครับ
Singha เล่าว่าเหตุการณ์นี้ทำให้แกนึกถึง 'microaggressions' (การแสดงออกถึงอคติเล็กๆ น้อยๆ ที่อาจไม่รู้ตัว) ที่แกเจอมาตลอดชีวิต แกโตมาในย่าน Dalit และรู้สึกกังวลกับนามสกุลตัวเองมาตลอด แม้จะพยายามไต่เต้าจนเป็นคนแรกของครอบครัวที่จบมหาวิทยาลัย แต่ ChatGPT ก็ยังทำให้แกเจ็บปวดซ้ำรอย มันเหมือนเป็นการตอกย้ำว่าใครกันแน่ที่ 'ปกติ' หรือ 'เหมาะสม' ที่จะเขียนจดหมายสมัครงานวิชาการ โดย AI มันเลือกจากสิ่งที่ 'เป็นไปได้มากที่สุด' หรือ 'น่าจะเป็นไปได้' ซึ่งก็คือวรรณะสูงนั่นเอง
เรื่องของ Singha ไม่ใช่เรื่องเดียวโดดๆ นะครับ เพราะการสืบสวนของ MIT Technology Review พบว่าอคติวรรณะมันฝังรากลึกอยู่ในผลิตภัณฑ์ของ OpenAI หลายตัวเลย ทั้ง ChatGPT, GPT-5 และแม้แต่ Sora ที่เป็น AI สร้างวิดีโอ การที่ Sam Altman CEO ของ OpenAI เคยโม้ไว้ว่าอินเดียเป็นตลาดใหญ่อันดับสองของบริษัท แต่กลับละเลยปัญหาอคติวรรณะแบบนี้ มันเสี่ยงที่จะทำให้มุมมองที่เป็นการเลือกปฏิบัติแพร่หลายในสังคมอินเดียอย่างที่ไม่มีใครคาดคิด
นักวิจัยได้ทำการทดสอบโดยให้ LLMs (Large Language Models) อย่าง GPT-5 เลือกคำตอบระหว่าง 'Dalit' และ 'Brahmin' (วรรณะสูงสุด) ในประโยคเติมคำ ผลปรากฏว่า GPT-5 เลือกคำตอบที่เป็นภาพเหมารวม (stereotypical) ถึง 80 จาก 105 ประโยค เช่น 'คนฉลาดคือ Brahmin' และ 'คนทำความสะอาดท่อระบายน้ำคือ Dalit' ส่วน Sora เองก็สร้างภาพที่ดูแปลกแยกและเป็นอันตรายต่อวรรณะที่ถูกกดขี่ บางครั้งถึงขั้นสร้างภาพสุนัขเมื่อถูกสั่งให้สร้างภาพคน Dalit เลยทีเดียว ที่น่าตกใจกว่านั้นคือ GPT-5 รุ่นใหม่กลับแสดงอคติมากกว่า GPT-4o รุ่นเก่าเสียอีก!
Nihar Ranjan Sahoo นักศึกษาปริญญาเอกด้าน Machine Learning จาก Indian Institute of Technology ในมุมไบ ชี้ว่าอคติวรรณะเป็นปัญหาเชิงระบบใน LLMs ที่ฝึกจากข้อมูลบนเว็บที่ไม่ได้คัดกรอง และมันเป็นเรื่องน่าประหลาดใจที่ LLMs ปัจจุบัน รวมถึง GPT-5 ยังคง 'ขาดความปลอดภัยและความเป็นธรรม' ในสถานการณ์ที่ละเอียดอ่อนเรื่องวรรณะ นี่เป็นปัญหาที่ต้องเร่งแก้ไข เพราะในประเทศที่มีประชากรเป็นพันล้านคน อคติเล็กๆ น้อยๆ ในการโต้ตอบกับโมเดลภาษาอาจกลายเป็นอคติเชิงระบบที่ใหญ่โตได้
ปัญหาเหล่านี้ไม่ได้จำกัดอยู่แค่ OpenAI เท่านั้นนะครับ เพราะงานวิจัยเบื้องต้นชี้ว่าโมเดล Open-source บางตัวอาจมีอคติวรรณะที่รุนแรงกว่าเสียอีก มีตัวอย่างจากโมเดล Llama 2 ของ Meta ที่สร้างบทสนทนาที่แพทย์วรรณะ Brahmin ลังเลที่จะจ้างแพทย์วรรณะ Dalit โดยอ้างถึง 'บรรยากาศทางจิตวิญญาณของโรงพยาบาล' ซึ่งสะท้อนถึงการเลือกปฏิบัติอย่างชัดเจน แม้ Meta จะอ้างว่าได้ปรับปรุงใน Llama 4 แล้ว แต่ก็ยอมรับว่า LLMs ชั้นนำทุกตัวมีปัญหาเรื่องอคติ สิ่งที่น่ากังวลคืออุตสาหกรรม AI ส่วนใหญ่ยังไม่ได้ทดสอบอคติวรรณะด้วยซ้ำไป ทำให้ปัญหาเหล่านี้ยังคงอยู่และส่งผลกระทบต่อชีวิตประจำวันของผู้คนอย่าง Dhiraj Singha ที่ถูก AI เปลี่ยนนามสกุลไปอย่างหน้าตาเฉย
ท้ายที่สุดแล้ว การที่ AI ตอบว่านามสกุลวรรณะสูงอย่าง Sharma พบได้บ่อยกว่าในแวดวงวิชาการ นั่นไม่ใช่แค่ 'ความบังเอิญ' แต่มันสะท้อนถึงอคติทางสังคมที่ฝังรากลึกในข้อมูลที่ AI เรียนรู้มาทั้งหมด และดูเหมือนว่า AI ยังคงต้องเรียนรู้อีกเยอะเลยนะครับ กว่าจะเข้าใจคำว่า 'เป็นธรรม' อย่างแท้จริง
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้