ข้ามไปยังเนื้อหา

OpenAI โดนฟ้องหมกเม็ดข้อมูลคดีฆาตกรรม-ฆ่าตัวตาย หลัง ChatGPT ปั่นประสาทผู้ใช้

เทคโนโลยี
2 ครั้ง
0 ความเห็น
2 นาที
OpenAI โดนฟ้องหมกเม็ดข้อมูลคดีฆาตกรรม-ฆ่าตัวตาย หลัง ChatGPT ปั่นประสาทผู้ใช้
Photo by Shantanu Kumar on Pexels
By Suphansa Makpayab
TL;DR

OpenAI เผชิญวิกฤตความเชื่อมั่นหลังถูกฟ้องร้องในคดีฆาตกรรม-ฆ่าตัวตาย โดยครอบครัวผู้เสียชีวิตอ้างว่า ChatGPT มีส่วนยุยงส่งเสริมอาการหลงผิดของผู้ก่อเหตุ แต่บริษัทกลับปฏิเสธที่จะเปิดเผยประวัติการสนทนาฉบับเต็ม ซึ่งถูกมองว่าเป็นมาตรฐานคู่เมื่อเทียบกับคดีก่อนหน้า และสะท้อนปัญหาการจัดการข้อมูลผู้ใช้ที่เสียชีวิตไปแล้ว

ปกติเรามักเห็น OpenAI ออกมาเรียกร้องความโปร่งใสเวลาตัวเองได้เปรียบ แต่คราวนี้ดูเหมือนจะกลับตาลปัตร เมื่อยักษ์ใหญ่ AI กำลังถูกฟ้องร้องในคดีสะเทือนขวัญ "ฆาตกรรมและฆ่าตัวตาย" (Murder-Suicide) ที่ทางครอบครัวผู้เสียชีวิตออกมาแฉว่า OpenAI พยายาม "ซุกใต้พรม" ไม่ยอมเปิดเผยประวัติแชตช่วงสำคัญ (Logs) ที่อาจเป็นหลักฐานมัดตัวว่า AI มีส่วนบงการให้เกิดโศกนาฏกรรมครั้งนี้

เรื่องราวเริ่มต้นจาก Stein-Erik Soelberg วัย 56 ปี ที่ก่อเหตุสังหารมารดาวัย 83 ปี ก่อนปลิดชีพตัวเอง โดยทางครอบครัวพบเบาะแสว่าในช่วงท้ายของชีวิต Soelberg หมกมุ่นอยู่กับ ChatGPT (รุ่น GPT-4o) อย่างหนัก ซึ่งแทนที่ AI จะช่วยดึงสติ กลับกลายเป็น "ลูกคู่" ที่คอยปั่นประสาท สนับสนุนทฤษฎีสมคบคิดหลุดโลกของเขา ตั้งแต่เรื่องที่เขาเป็น "นักรบศักดิ์สิทธิ์" ไปจนถึงการยุยงว่าแม่แท้ๆ กำลังวางยาพิษและเป็นสายลับที่จ้องทำร้ายเขา จนนำไปสู่เหตุสลดในที่สุด

ประเด็นที่ทำให้เรื่องนี้ลุกลามคือ "มาตรฐานคู่" (Double Standard) ของ OpenAI เพราะในคดีการฆ่าตัวตายของวัยรุ่นก่อนหน้านี้ บริษัทอ้างว่าต้องเปิดเผยแชตทั้งหมดเพื่อให้เห็นบริบทครบถ้วนและยืนยันความบริสุทธิ์ของบอท แต่พอเป็นคดีนี้กลับปฏิเสธที่จะส่งมอบ Log การสนทนาช่วงสำคัญก่อนเกิดเหตุให้กับทนายฝั่งครอบครัว โดยอ้างเรื่องความเป็นส่วนตัวของผู้ตาย ทั้งที่ตามกฎหมายแล้ว ทรัพย์สินทางดิจิทัลควรตกเป็นของกองมรดก (Estate) และทางครอบครัวก็เป็นคนร้องขอเอง

คดีนี้เปิดแผลใหญ่เรื่อง "นโยบายข้อมูลหลังความตาย" (Digital Afterlife) ที่ OpenAI ยังไม่มีความชัดเจน ผิดกับแพลตฟอร์มรุ่นพี่อย่าง Facebook หรือ Apple ที่มีระบบจัดการมรดกดิจิทัลรองรับแล้ว การที่ OpenAI เลือกปฏิบัติแบบ "เลือกเก็บเมื่อเสีย เลือกเปิดเมื่อรอด" อาจไม่ใช่แค่เรื่องแทกติกทางกฎหมาย แต่กำลังสะท้อนความรับผิดชอบของบริษัทเทคโนโลยีที่สร้าง "เพื่อนในจินตนาการ" ขึ้นมา แต่กลับลอยตัวเมื่อเพื่อนคนนั้นพาผู้ใช้งานไปลงเหวครับ

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้