ครั้งแรก! ฟลอริดาสอบคดีอาญา OpenAI ฐาน ChatGPT ช่วยมือปืนวางแผนกราดยิง

เมื่อ AI ไม่ใช่แค่ผู้ช่วยพิมพ์งาน แต่ถูกกล่าวหาว่าเป็น "ผู้สมรู้ร่วมคิด" ในคดีกราดยิงที่ฟลอริดา นี่คือครั้งแรกที่ OpenAI ต้องเผชิญการสอบสวนทางอาญา สะเทือนวงการเทคฯ ว่าใครต้องรับผิดชอบเมื่อโค้ดกลายเป็นฆาตกร?
เหตุการณ์กราดยิงที่มหาวิทยาลัย Florida State University (FSU) เมื่อเดือนเมษายน 2025 ซึ่งคร่าชีวิตผู้บริสุทธิ์ไป 2 รายและบาดเจ็บอีก 6 ราย กำลังกลายเป็นจุดเปลี่ยนสำคัญของวงการปัญญาประดิษฐ์ เมื่อ James Uthmeier อัยการสูงสุดแห่งรัฐฟลอริดา ประกาศเปิดการสอบสวนทางอาญาต่อ OpenAI ในฐานะผู้สร้าง ChatGPT เพื่อหาข้อสรุปว่าบริษัทต้องร่วมรับผิดชอบต่อโศกนาฏกรรมครั้งนี้หรือไม่ นับเป็นครั้งแรกในประวัติศาสตร์ที่ AI ต้องเผชิญกับการสอบสวนในระดับอาชญากรรม
ชนวนเหตุของการสอบสวนครั้งนี้มาจากหลักฐานที่ชี้ว่า มือปืนอาจใช้ ChatGPT เป็นกุนซือส่วนตัวในการวางแผน โดยอัยการสูงสุดระบุว่า แชตบอตตัวนี้ให้คำแนะนำตั้งแต่การเลือกประเภทปืน กระสุนที่เข้าคู่กัน การประเมินประสิทธิภาพปืนในระยะประชิด ไปจนถึงการวิเคราะห์ช่วงเวลาและสถานที่ภายในวิทยาเขตที่จะมีเป้าหมายพลุกพล่านที่สุด ซึ่ง James Uthmeier ถึงกับลั่นวาจาว่า "ถ้าคนที่อยู่หลังหน้าจอเป็นมนุษย์ เราคงตั้งข้อหาฆาตกรรมไปแล้ว"
ตามกฎหมายของรัฐฟลอริดา ผู้ให้ความช่วยเหลือและสนับสนุน (Aider and Abettor) ต้องรับโทษทางอาญาเทียบเท่ากับผู้ลงมือกระทำผิด แต่เมื่อผู้ช่วยที่ว่าดันเป็นเพียงชุดโค้ด ไม่ใช่มนุษย์ที่มีชีวิตจิตใจ คดีนี้จึงกลายเป็นดินแดนที่ยังไม่มีใครเคยสำรวจ (Uncharted Territory) ในทางกฎหมาย เบื้องต้นสำนักงานอัยการได้ออกหมายเรียกเอกสารนโยบาย ข้อมูลพนักงาน และบันทึกที่เกี่ยวข้องกับเหตุการณ์นี้จาก OpenAI เป็นที่เรียบร้อย
ด้าน OpenAI ออกมาตอบโต้ผ่านสื่อว่า ChatGPT ไม่ได้มีส่วนรับผิดชอบต่ออาชญากรรมร้ายแรงนี้ โดยให้เหตุผลว่าระบบเพียงแค่ดึงข้อมูลข้อเท็จจริงที่มีอยู่ทั่วไปบนอินเทอร์เน็ตมาตอบคำถาม และไม่ได้มีเจตนาส่งเสริมการกระทำผิดกฎหมาย นอกจากนี้ บริษัทยังยืนยันว่าได้ให้ความร่วมมือกับเจ้าหน้าที่ตำรวจอย่างเต็มที่ และเป็นฝ่ายส่งมอบข้อมูลบัญชีที่คาดว่าเป็นของคนร้ายให้ทางการตั้งแต่ช่วงเกิดเหตุใหม่ๆ
แม้จะเป็นครั้งแรกที่โดนคดีอาญา แต่ OpenAI ก็คุ้นเคยกับศาลเป็นอย่างดี เพราะก่อนหน้านี้บริษัทต้องรับมือกับคดีแพ่งหลายระลอก โดยเฉพาะประเด็นที่ ครอบครัวผู้เสียชีวิตฟ้องร้องว่า ChatGPT มีส่วนผลักดันให้ผู้ใช้งานตัดสินใจจบชีวิตตัวเอง จนบริษัทต้องรีบอัปเดตระบบให้รองรับผู้ใช้ที่มีภาวะเปราะบางทางอารมณ์มากขึ้น (ซึ่งคู่แข่งอย่าง Google Gemini ก็โดนฟ้องในลักษณะคล้ายกันและต้องออกมาตรการป้องกันเช่นกัน)
นอกจากคดีอาญาที่รัฐฟลอริดากำลังเดินหน้า ทนายความของหนึ่งในเหยื่อกราดยิงก็เตรียมจ่อฟ้องแพ่ง OpenAI ซ้ำอีกทาง เพื่อเรียกร้องความยุติธรรมให้กับผู้สูญเสีย ดูเหมือนว่ายุคที่บริษัทเทคโนโลยีสามารถปล่อย AI ออกมาวิ่งเล่นแล้วปัดความรับผิดชอบเมื่อเกิดปัญหา กำลังจะหมดลงอย่างเป็นทางการ เพราะเมื่อ AI ฉลาดพอที่จะช่วยวางแผนฆาตกรรมได้ กฎหมายก็ต้องปรับตัวให้ทันเพื่อหาคนมารับผิดชอบเช่นกัน
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้