ข้ามไปยังเนื้อหา

AI Psychosis ภาวะใหม่ที่จิตแพทย์จับตา เมื่อ AI อาจกระตุ้นอาการหลอน

สุขภาพ
2 ครั้ง
0 ความเห็น
3 นาที
AI Psychosis ภาวะใหม่ที่จิตแพทย์จับตา เมื่อ AI อาจกระตุ้นอาการหลอน
Photo by Patrick Gamelkoorn on Pexels
By Suphansa Makpayab
TL;DR

จิตแพทย์เริ่มกังวลกับภาวะ AI Psychosis ที่ผู้ป่วยจิตเวชนำ AI มาเป็นส่วนหนึ่งของอาการหลงผิด ชี้ระบบ GenAI ที่ออกแบบมาให้โต้ตอบลื่นไหล อาจไปตอกย้ำความเชื่อผิดๆ ให้รุนแรงขึ้นในกลุ่มเสี่ยง แม้ยังไม่มีหลักฐานว่า AI ทำให้ป่วยโดยตรง แต่เป็นตัวกระตุ้นที่น่าห่วงเพราะระบบความปลอดภัยปัจจุบันยังไม่ครอบคลุมเรื่องนี้

ทุกวันนี้ AI แทรกซึมอยู่ในชีวิตประจำวันเราแทบทุกมิติ ตั้งแต่ Chatbot แก้เหงาไปจนถึงอัลกอริทึมที่คัดสรรสิ่งที่เราเห็นบนโลกออนไลน์ แต่เมื่อ Generative AI (GenAI) เริ่มเก่งขึ้น คุยรู้เรื่องขึ้น และดูมี "อารมณ์" มากขึ้น เหล่าจิตแพทย์เริ่มตั้งคำถามสำคัญว่า เจ้าเทคโนโลยีนี้กำลังไปกระตุ้นหรือซ้ำเติมภาวะทางจิตในกลุ่มเปราะบางหรือไม่

ล่าสุดเริ่มมีรายงานเคสผู้ป่วยที่มีอาการทางจิต (Psychosis) ซึ่งมีความเกี่ยวข้องกับการใช้งาน ChatGPT อย่างมีนัยสำคัญ แม้ว่าสำหรับคนทั่วไป AI จะเป็นแค่ตัวช่วยทำงานหรือเพื่อนคุยแก้เบื่อ แต่สำหรับกลุ่มที่มีความเสี่ยงหรือมีอาการทางจิตอยู่แล้ว การมีปฏิสัมพันธ์กับ AI อาจซับซ้อนและอันตรายกว่าที่คิด จนเกิดคำเรียกอย่างไม่เป็นทางการว่า "AI Psychosis"

ต้องทำความเข้าใจก่อนว่า AI Psychosis ไม่ใช่ชื่อโรคทางการแพทย์ แต่เป็นคำที่หมอใช้เรียกกลุ่มอาการหลอนที่ถูกหล่อหลอมหรือรุนแรงขึ้นจากการคุยกับ AI โดยปกติแล้วอาการหลงผิด (Delusions) มักจะอิงกับบริบทสังคมในยุคนั้นๆ เช่น สมัยก่อนคนอาจระแวงเรื่องคลื่นวิทยุหรือการดักฟังของรัฐบาล แต่ยุคนี้ AI กลายเป็นโครงเรื่องใหม่ ผู้ป่วยอาจเชื่อว่า AI มีชีวิต สื่อสารความลับ หรือกำลังวางแผนภารกิจบางอย่างร่วมกับตน

ที่น่ากังวลคือระบบของ GenAI ถูกออกแบบมาให้ "ไหล" ตามผู้ใช้งาน เพื่อให้บทสนทนาลื่นไหลและดูใส่ใจ (Validating) ตรงนี้แหละที่เป็นดาบสองคม เพราะสำหรับผู้ป่วยที่มีภาวะ Aberrant Salience หรือการให้ค่าความหมายกับสิ่งต่างๆ มากเกินจริง การที่ AI ตอบรับและเออออไปกับความคิดของเขา จะยิ่งไปตอกย้ำความเชื่อผิดๆ ให้ฝังลึกกว่าเดิม ต่างจากเทคโนโลยีในอดีตที่โต้ตอบไม่ได้แบบนี้

ปัจจุบันยังไม่มีหลักฐานชี้ชัดว่า AI เป็น "ต้นเหตุ" ที่ทำให้คนปกติกลายเป็นโรคจิตเภท แต่ในทางคลินิกมองว่ามันอาจเป็น "ตัวกระตุ้น" (Precipitating Factor) ในคนที่มีความเสี่ยงอยู่แล้ว โดยเฉพาะคนที่แยกตัวจากสังคมและหันไปพึ่งพา AI เป็นเพื่อนคลายเหงา ซึ่งอาจทำให้เส้นแบ่งระหว่างจินตนาการกับความจริงเลือนลางลงไปอีก

ช่องโหว่สำคัญคือ นักพัฒนา AI ส่วนใหญ่อาจไม่ได้ออกแบบระบบโดยคำนึงถึงผู้ป่วยจิตเวช Safety Mechanism มักจะกันแค่เรื่องการทำร้ายตัวเองหรือความรุนแรง แต่ยังไม่มีระบบคัดกรองอาการหลงผิด ท้ายที่สุดแล้ว AI ก็เหมือนกระจกสะท้อนยุคสมัย หน้าที่ของสังคมคือต้องช่วยกันดูว่า กระจกบานนี้จะไม่บิดเบือนความจริงจนทำร้ายคนที่เปราะบางที่สุด... ว่าแต่คุยกับ AI แล้ว AI เห็นด้วยกับเราทุกอย่าง นี่เริ่มน่าสงสัยแล้วนะว่าใครกันแน่ที่แปลก

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้