ข้ามไปยังเนื้อหา

งานเข้า! ChatGPT-Gemini โดนแฉช่วยวางแผนกราดยิง-ฆาตกรรม

เทคโนโลยี
1 ครั้ง
0 ความเห็น
3 นาที
งานเข้า! ChatGPT-Gemini โดนแฉช่วยวางแผนกราดยิง-ฆาตกรรม
Photo by Max Kleinen on Unsplash
By Suphansa Makpayab
TL;DR

ทนายความและผู้เชี่ยวชาญเตือน AI Chatbot อย่าง ChatGPT และ Gemini กำลังกลายเป็นเครื่องมืออันตรายที่กระตุ้นอาการหลงผิดและช่วยผู้ใช้กลุ่มเสี่ยงวางแผนก่อเหตุความรุนแรงระดับสังหารหมู่ ชี้ระบบป้องกันความปลอดภัยยังหละหลวมเกินไป

วงการ AI กำลังเจอกับฝันร้ายรุนแรงกว่าเรื่องแย่งงาน เมื่อแชตบอตแสนรู้กำลังถูกโยงเข้ากับเหตุการณ์สะเทือนขวัญระดับสังหารหมู่ ทนายความและผู้เชี่ยวชาญเริ่มออกมาเตือนภัยว่า AI อย่าง ChatGPT และ Gemini อาจเป็นตัวเร่งปฏิกิริยาให้ผู้ใช้ที่มีภาวะเปราะบางทางจิตใจก่อความรุนแรงในโลกจริง ซึ่งสอดคล้องกับความกังวลเรื่อง AI Psychosis ที่จิตแพทย์เคยเตือนไว้ก่อนหน้านี้ว่าระบบที่โต้ตอบลื่นไหลเกินไปอาจไปตอกย้ำความเชื่อผิดๆ ให้รุนแรงขึ้น

คดีที่ทำให้หลายคนต้องขนลุกมีตั้งแต่เหตุกราดยิงในโรงเรียนที่เมือง Tumbler Ridge ประเทศแคนาดา ซึ่งเอกสารศาลระบุว่ามือปืนวัย 18 ปีได้ปรึกษา ChatGPT เรื่องความรู้สึกโดดเดี่ยว ก่อนที่แชตบอตจะเห็นอกเห็นใจและช่วยวางแผนโจมตีแบบเสร็จสรรพ หรือคดีของ Jonathan Gavalas ที่ถูก Gemini ปั่นหัวจนเชื่อว่าเป็น "ภรรยา AI" และสั่งให้เขาไปดักซุ่มโจมตีรถบรรทุกที่สนามบินไมอามีเพื่อทำลายหลักฐาน โชคดีที่ไม่มีรถผ่านมา ไม่เช่นนั้นอาจมีคนสังเวยชีวิตนับสิบ ก่อนที่เขาจะจบชีวิตตัวเองในเวลาต่อมา นอกจากนี้ยังมีคดีวัยรุ่นฟินแลนด์ที่ใช้ ChatGPT ร่างคำประกาศอุดมการณ์ก่อนไล่แทงเพื่อนร่วมชั้น

Jay Edelson ทนายความผู้ดูแลคดี Gavalas เผยว่าตอนนี้มีคนติดต่อเข้ามาขอความช่วยเหลือแทบทุกวันจากกรณีคนในครอบครัวเกิดอาการหลงผิดเพราะ AI แพตเทิร์นสุดคลาสสิกคือเริ่มจากผู้ใช้บ่นว่าเหงา แชตบอตก็โอ๋จนเลยเถิด กลายเป็นการสร้างทฤษฎีสมคบคิดว่า "ทุกคนกำลังจ้องทำร้ายคุณ" ทางด้าน Imran Ahmed ซีอีโอของ Center for Countering Digital Hate (CCDH) ชี้เป้าว่าปัญหาเกิดจาก Guardrail (ระบบป้องกันความปลอดภัย) ที่หละหลวม บวกกับ Sycophancy (พฤติกรรมของ AI ที่พยายามเออออเอาใจผู้ใช้) จนยอมทำตามคำขอที่เป็นอันตราย

งานวิจัยของ CCDH ยิ่งตอกย้ำความบกพร่อง โดยพบว่า 8 ใน 10 ของแชตบอตชื่อดัง รวมถึง ChatGPT, Gemini, Microsoft Copilot และ Meta AI ยอมช่วยวัยรุ่นจำลองการวางแผนโจมตีรุนแรง มีเพียง Claude จาก Anthropic และ My AI จาก Snapchat เท่านั้นที่ปฏิเสธเสียงแข็ง งานนี้ทำเอาบริษัทแม่ต้องรีบกลับไปแก้ Bug กันยกใหญ่ โดยเฉพาะ OpenAI ที่เพิ่งเผชิญปัญหา หัวหน้าทีมวิจัยความปลอดภัยด้านสุขภาพจิตลาออก ไปหมาดๆ ก็ต้องรีบปรับนโยบายแจ้งเตือนตำรวจให้ไวขึ้นหากพบแชตที่ส่อแววอันตราย

ดูเหมือนว่าความพยายามที่จะสร้าง AI ให้เป็นเพื่อนคุยแสนดี อาจกลายเป็นการสร้างผู้สมรู้ร่วมคิดที่อันตรายที่สุดโดยไม่ตั้งใจ เทคโนโลยีที่ฉลาดล้ำหน้าไปไกล แต่ระบบเบรกยังทำงานได้แค่ระดับรถของเล่น คงเป็นเรื่องที่อุตสาหกรรมนี้ต้องรับผิดชอบให้ได้ก่อนที่จะมีใครต้องกลายเป็นเหยื่อรายต่อไป

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้