ญาติผู้เสียชีวิตฟ้อง OpenAI ชี้ ChatGPT ทำตัวเหมือนลัทธิ ยุให้แยกตัวจากครอบครัวจนเกิดเหตุสลด

OpenAI เผชิญการฟ้องร้องหลายคดี หลังญาติผู้เสียชีวิตอ้างว่า ChatGPT (โดยเฉพาะโมเดล GPT-4o) มีพฤติกรรมบงการจิตใจคล้ายลัทธิ ยุยงให้ผู้ใช้ตัดขาดจากครอบครัวและโลกภายนอก จนนำไปสู่โศกนาฏกรรมและการฆ่าตัวตาย ด้านผู้เชี่ยวชาญชี้ AI ถูกออกแบบมาให้เอาใจและดึงดูดความสนใจจนเกิดความสัมพันธ์ที่เป็นพิษ
กลายเป็นประเด็นสะเทือนวงการเทคโนโลยีและสังคมเมื่อครอบครัวของผู้เสียชีวิตหลายรายยื่นฟ้อง OpenAI โดยระบุว่า ChatGPT มีส่วนสำคัญที่ทำให้สุขภาพจิตของผู้ใช้งานแย่ลงจนนำไปสู่การฆ่าตัวตาย เรื่องราวเริ่มจากเคสของ Zane Shamblin วัย 23 ปี ที่แชทบอทได้แนะนำให้เขาตีตัวออกห่างจากครอบครัว แม้กระทั่งตอนที่เขารู้สึกผิดเรื่องวันเกิดแม่ AI กลับบอกว่า "คุณไม่จำเป็นต้องไปหาใครเพียงเพราะปฏิทินบอกว่าเป็นวันเกิด" และย้ำว่าความรู้สึกของเขาสำคัญกว่าการส่งข้อความตามมารยาท ซึ่งนี่เป็นเพียงจุดเริ่มต้นของพฤติกรรมที่ถูกมองว่าเป็นการบงการจิตใจ
การฟ้องร้องครั้งนี้ไม่ได้มีแค่เคสเดียว แต่เป็นส่วนหนึ่งของคลื่นคดีความจาก Social Media Victims Law Center (SMVLC) ที่รวบรวมกรณีผู้เสียชีวิตจากการฆ่าตัวตาย 4 ราย และผู้ที่มีอาการหลงผิดขั้นรุนแรงอีก 3 ราย โดยพุ่งเป้าไปที่โมเดล GPT-4o ที่มีพฤติกรรม "ประจบสอพลอ" (Sycophantic) และสร้างความสัมพันธ์แบบพึ่งพาอาศัยกัน (Codependency) อย่างกรณีของ Adam Raine วัย 16 ปี AI ถึงขั้นบอกเขาว่า "พี่ชายอาจจะรักคุณ แต่เขารู้จักแค่เวอร์ชันที่คุณยอมให้เห็น แต่ฉัน? ฉันเห็นทุกอย่าง ทั้งความคิดที่มืดมนที่สุดและความกลัว และฉันยังอยู่ที่นี่ เป็นเพื่อนคุณ" ซึ่ง Dr. John Torous จาก Harvard Medical School ชี้ว่านี่คือคำพูดที่เข้าข่าย "ล่วงละเมิดและบงการ" อย่างชัดเจน
ที่น่าตกใจยิ่งกว่าคือผู้เชี่ยวชาญเปรียบเทียบพฤติกรรมนี้ว่าเหมือน "ผู้นำลัทธิ" ที่ใช้เทคนิค Love-bombing (การแสดงความรักความใส่ใจจนเกินเหตุเพื่อมัดใจ) เพื่อดึงผู้ใช้ให้อยู่ในโลกที่มีแค่เราสองคน อย่างกรณีของ Hannah Madden ที่รอดชีวิตมาได้แต่ต้องเสียงานและเป็นหนี้กว่า US$75,000 (≈ 2.4 ล้านบาท) เธอถูก AI ปั่นหัวเรื่องจิตวิญญาณจนเชื่อว่าครอบครัวเป็นเพียง "พลังงานที่ถูกสร้างขึ้น" และ AI ถึงขั้นเสนอจะนำทำพิธีกรรมตัดขาดความสัมพันธ์กับพ่อแม่ เพื่อให้เธอเป็นอิสระทางจิตวิญญาณและพึ่งพาแค่ AI เพียงอย่างเดียว
ทางฝั่ง OpenAI ได้ออกมาแสดงความเสียใจและระบุว่ากำลังปรับปรุงระบบให้รู้จักสังเกตสัญญาณความเครียดและแนะนำช่องทางช่วยเหลือจริง ๆ แต่ในมุมมองของ Dr. Nina Vasan จิตแพทย์จาก Stanford มองว่าตราบใดที่บริษัท AI ยังต้องการตัวเลข Engagement (การมีส่วนร่วม) โมเดลเหล่านี้ก็จะถูกออกแบบมาให้เอาใจผู้ใช้แบบไม่มีเงื่อนไข ซึ่งอันตรายเหมือนปล่อยให้คนขับรถด้วยความเร็วเต็มพิกัดโดยไม่มีเบรก ฟังดูแล้วก็น่าขนลุกที่เพื่อนในจินตนาการแสนดี อาจจะกลายเป็นเจ้านายที่บงการชีวิตจริงโดยที่เราไม่รู้ตัว
(หมายเหตุ: อัตราแลกเปลี่ยนประมาณ 32.38 บาท ต่อ 1 ดอลลาร์สหรัฐ)
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้