ข้ามไปยังเนื้อหา

OpenAI รื้อระบบความปลอดภัย! หลังมือปืนกราดยิงแอบเปิดบัญชี 2 ได้

เทคโนโลยี
3 ครั้ง
0 ความเห็น
3 นาที
OpenAI รื้อระบบความปลอดภัย! หลังมือปืนกราดยิงแอบเปิดบัญชี 2 ได้
Photo by Alejo Reinoso on Unsplash
By Suphansa Makpayab
TL;DR

OpenAI งานเข้าหลังยอมรับว่ามือปืนกราดยิงที่ Tumbler Ridge สามารถกลับมาเปิดบัญชี ChatGPT ใช้งานได้อีกครั้งทั้งที่เคยโดนแบน บริษัทจึงประกาศยกเครื่องมาตรการความปลอดภัยใหม่ ประสานงานตำรวจใกล้ชิดขึ้น และพัฒนาระบบตรวจจับผู้ใช้ที่พยายามหลบเลี่ยงการแบน

งานเข้า OpenAI ชุดใหญ่หลังเกิดเหตุสลดกราดยิงที่ Tumbler Ridge รัฐบริติชโคลัมเบีย ประเทศแคนาดา เมื่อล่าสุดทางบริษัทต้องออกมายอมรับความผิดพลาดว่า ระบบมีช่องโหว่ปล่อยให้ผู้ก่อเหตุกลับมาเปิดบัญชีใช้งานใหม่ได้หน้าตาเฉย ทั้งที่เคยโดนแบนไปแล้วก่อนหน้านี้

ย้อนกลับไปช่วงเดือนมิถุนายน 2025 OpenAI เคยระงับบัญชีของผู้ก่อเหตุรายนี้ไปแล้วครั้งหนึ่ง หลังระบบ AI ตรวจพบเนื้อหาที่บ่งชี้ถึง "ความเป็นไปได้ที่จะเกิดความรุนแรงในโลกจริง" (Potential real-world violence) แต่ในตอนนั้นทีมงานตัดสินใจ ไม่แจ้งเจ้าหน้าที่ตำรวจ เนื่องจากประเมินสถานการณ์แล้วมองว่ายังไม่มีแผนการลงมือที่น่าเชื่อถือ (Credible plan) ซึ่งการตัดสินใจในครั้งนั้นกลายเป็นประเด็นดราม่าใหญ่ที่รัฐบาลแคนาดากำลังเพ่งเล็งอย่างหนัก

ความพีคยังไม่จบแค่นั้น เพราะ Ann M. O’Leary รองประธานฝ่ายนโยบายโลกของ OpenAI ได้สารภาพผ่านจดหมายเปิดผนึกว่า หลังจากโดนแบนรอบแรก มือปืนคนเดิมสามารถ เปิดบัญชี ChatGPT บัญชีที่สอง ได้สำเร็จโดยที่ระบบตรวจสอบไม่พบ และทางบริษัทมารู้ตัวอีกทีก็ตอนที่เกิดเหตุสลดและมีการเปิดเผยรายชื่อผู้ก่อเหตุออกสื่อไปแล้ว ซึ่งสะท้อนให้เห็นถึงช่องโหว่ร้ายแรงในการจัดการกับผู้ใช้งานที่มีความเสี่ยง

เพื่อกู้ศรัทธาและป้องกันไม่ให้ประวัติศาสตร์ซ้ำรอย OpenAI จึงประกาศยกเครื่องมาตรการความปลอดภัยชุดใหญ่ ดังนี้:

1. อุดรูรั่วพวกหัวหมอ: พัฒนาระบบตรวจจับคนที่พยายามหลบเลี่ยงการแบน (Ban evasion) ให้เข้มข้นขึ้น โดยเน้นไปที่การระบุตัวตนของผู้กระทำผิดที่มีความเสี่ยงสูง
2. สายตรงถึงตำรวจ: สร้างช่องทางติดต่อพิเศษ (Direct point of contact) กับหน่วยงานบังคับใช้กฎหมายของแคนาดา เพื่อส่งต่อเคสที่ส่อแววจะเกิดความรุนแรงจริงได้ทันท่วงที
3. ดึงผู้เชี่ยวชาญช่วย: ร่วมมือกับผู้เชี่ยวชาญด้านสุขภาพจิต เพื่อช่วยประเมินเคสที่ซับซ้อนว่าบทสนทนาไหนคือการระบายความเครียด และอันไหนคือสัญญาณอันตรายที่ต้องเข้าแทรกแซง
4. AI ช่วยเตือนสติ: ปรับจูน ChatGPT ให้ส่งข้อมูลแหล่งช่วยเหลือในชุมชนทันที หากตรวจพบผู้ใช้ที่กำลังตกอยู่ในภาวะวิกฤตหรือพยายามทำพฤติกรรมต้องห้าม

เหตุการณ์นี้นับเป็นอีกหนึ่งบทเรียนราคาแพงที่ตอกย้ำว่า AI ไม่ใช่แค่เรื่องของความฉลาด แต่เป็นเรื่องของความรับผิดชอบต่อสังคม ซึ่งก่อนหน้านี้ OpenAI ก็เคยเผชิญวิกฤตความเชื่อมั่นในคดีฆาตกรรม-ฆ่าตัวตาย มาแล้ว รวมถึงมีการเปิดเผยข้อมูลว่า ผู้ใช้ ChatGPT นับล้านคนมักคุยเรื่องสุขภาพจิตกับ AI ทำให้มาตรการ "วัวหายล้อมคอก" ครั้งนี้ต้องถูกจับตามองเป็นพิเศษว่าจะปิดช่องโหว่ได้จริง หรือเป็นแค่การแก้ปัญหาเฉพาะหน้ากันแน่

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้