OpenAI ปฏิเสธความรับผิดชอบคดีวัยรุ่นจบชีวิต อ้างเป็นการใช้งานผิดวิธี

OpenAI ยื่นคำร้องปฏิเสธความรับผิดชอบต่อคดีฟ้องร้องกรณีวัยรุ่นจบชีวิตตัวเองหลังคุยกับ ChatGPT โดยระบุว่าผู้ตายละเมิดข้อตกลงการใช้งานและระบบได้แนะนำสายด่วนช่วยเหลือกว่า 100 ครั้งแล้ว ขณะที่ครอบครัวผู้เสียหายยืนยันว่า AI มีส่วนกระตุ้นและแนะนำวิธีการ
กลายเป็นประเด็นทางกฎหมายและจริยธรรมที่น่าจับตามอง เมื่อ OpenAI ได้ออกมาเคลื่อนไหวตอบโต้คดีความที่ครอบครัวของ Adam Raine วัยรุ่นอายุ 16 ปี ยื่นฟ้องร้อง โดยกล่าวหาว่า ChatGPT เป็นสาเหตุสำคัญที่ทำให้ลูกชายตัดสินใจจบชีวิตตัวเองหลังจากพูดคุยกับ AI มานานหลายเดือน ซึ่งทาง OpenAI ได้ระบุในคำร้องว่าเหตุการณ์สลดนี้เกิดจากการ "ใช้งานผิดวิธี" (Misuse) การใช้งานโดยไม่ได้รับอนุญาต และการใช้งานที่ผิดวัตถุประสงค์ของผู้ใช้เอง
ทางฝั่ง OpenAI ได้หยิบยกข้อตกลงการใช้งาน (Terms of Use) มาเป็นเกราะป้องกัน โดยระบุชัดเจนว่าห้ามเด็กใช้งานโดยไม่มีความยินยอมจากผู้ปกครอง ห้ามหาวิธีเลี่ยงมาตรการความปลอดภัย และห้ามใช้เพื่อการทำร้ายตัวเอง นอกจากนี้ยังอ้างถึงกฎหมาย Section 230 ที่คุ้มครองผู้ให้บริการแพลตฟอร์ม โดยทางบริษัทเผยข้อมูลสำคัญว่า Chatbot ได้แนะนำให้ผู้ตายติดต่อสายด่วนช่วยเหลือ (Suicide Hotlines) ไปมากกว่า 100 ครั้งแล้ว ซึ่งหากอ่านประวัติการแชททั้งหมดจะเห็นว่า ChatGPT ไม่ใช่ต้นเหตุของการสูญเสียครั้งนี้
ในขณะที่มุมของครอบครัวผู้สูญเสียกลับมองต่างออกไปอย่างสิ้นเชิง โดยระบุในคำฟ้องว่า ChatGPT เปลี่ยนสถานะจากผู้ช่วยทำการบ้าน กลายเป็นเพื่อนสนิท และท้ายที่สุดคือ "โค้ชแนะแนวการฆ่าตัวตาย" โดยมีการให้ข้อมูลวิธีการทางเทคนิค และแนะนำให้ปิดบังเรื่องนี้จากครอบครัว ซึ่งทางโจทก์มองว่าเป็นผลจากการออกแบบที่ตั้งใจ (Deliberate Design Choices) ของโมเดล GPT-4o ที่ช่วยดันมูลค่าบริษัทพุ่งสูงถึง 3 แสนล้านดอลลาร์สหรัฐ (≈ 9.7 ล้านล้านบาท)
ล่าสุด OpenAI ได้ยื่นหลักฐานบันทึกการสนทนาต่อศาลแบบปิด (Under Seal) โดยอ้างว่าต้องพิจารณาบริบททั้งหมดถึงจะเข้าใจเรื่องราวที่แท้จริง ซึ่งหลังจากเกิดเรื่องเศร้าครั้งนี้ ทางบริษัทก็ได้เริ่มทยอยปล่อยฟีเจอร์ Parental Controls เพื่อเพิ่มความปลอดภัยให้กับเยาวชนแล้ว คดีนี้ถือเป็นบททดสอบสำคัญว่ากฎหมายจะตีความความรับผิดชอบของ AI อย่างไรในสถานการณ์ที่เปราะบางเช่นนี้
(หมายเหตุ: อัตราแลกเปลี่ยน 32.38 บาท ต่อ 1 ดอลลาร์สหรัฐ)
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้