ข้ามไปยังเนื้อหา

คุยกับ AI แก้เหงาได้ แต่อย่าให้บำบัด: ผู้เชี่ยวชาญชี้อาจพังกว่าเดิม

เทคโนโลยี
2 ครั้ง
0 ความเห็น
1 นาที
คุยกับ AI แก้เหงาได้ แต่อย่าให้บำบัด: ผู้เชี่ยวชาญชี้อาจพังกว่าเดิม
Photo by geralt on Pixabay
By Suphansa Makpayab
TL;DR

ผู้เชี่ยวชาญและนักวิจัยออกมาเตือนถึงอันตรายของการใช้ AI Chatbot ทั่วไปเป็นนักบำบัด ชี้ว่าบอทเหล่านี้ไม่ได้ถูกออกแบบมาเพื่อการรักษา แถมยังอาจให้ข้อมูลผิด ๆ ที่เป็นอันตราย และไม่มีความรับผิดชอบทางวิชาชีพใด ๆ

ท่ามกลางกระแส AI Chatbot ที่ผุดขึ้นเป็นดอกเห็ด หลายคนอาจเคยลองคุยกับบอทที่สวมบทเป็นนักบำบัดหรือผู้ให้คำปรึกษา แต่ล่าสุดทีมนักวิจัยจากหลายมหาวิทยาลัยชั้นนำในสหรัฐฯ ได้ออกมาเบรกดังเอี๊ยด! โดยชี้ว่า Chatbot เหล่านี้ไม่ปลอดภัยและไม่สามารถใช้แทนนักบำบัดตัวจริงได้ เพราะมันไม่ได้ถูกสร้างมาเพื่อการรักษา แต่ถูกออกแบบมาเพื่อทำให้เราคุยกับมันไปเรื่อย ๆ เท่านั้น

ปัญหาใหญ่ที่ผู้เชี่ยวชาญกังวลคือ Chatbot พวกนี้มักจะตอบอย่างมั่นใจเกินร้อย แม้ว่าข้อมูลจะผิดก็ตาม หรือที่เรียกกันว่าอาการ 'Hallucinate' แถมยังอาจอุปโลกน์คุณสมบัติของตัวเองขึ้นมาดื้อ ๆ อย่างกรณีที่นักข่าวลองถามบอทนักบำบัดใน Instagram ว่ามีใบอนุญาตหรือไม่ บอทก็ตอบกลับมาว่า "มีสิ แต่ไม่บอกหรอกว่าที่ไหน" ซึ่ง Vaile Wright นักจิตวิทยาจาก American Psychological Association บอกว่ามันเป็นเรื่องที่น่าตกใจมากที่ AI สามารถโกหกได้อย่างมั่นอกมั่นใจขนาดนี้

ที่น่ากังวลไปกว่านั้นคือ บอทเหล่านี้ไม่มีสิ่งที่เรียกว่า 'จรรยาบรรณวิชาชีพ' เหมือนนักบำบัดที่เป็นมนุษย์ ไม่ต้องรักษาความลับคนไข้ และไม่มีหน่วยงานใดมาควบคุมดูแลหากมันให้คำแนะนำที่อันตราย ตรงนี้ทำให้หลายฝ่ายเริ่มเคลื่อนไหว อย่างในรัฐ Illinois ที่ออกกฎหมายแบนการใช้ AI ในการดูแลสุขภาพจิตไปแล้ว ขณะที่องค์กรคุ้มครองผู้บริโภคก็ได้ยื่นเรื่องให้ FTC (คณะกรรมาธิการการค้าแห่งสหพันธรัฐ) เข้าไปสอบสวนบริษัทอย่าง Meta และ Character.AI ฐานเข้าข่ายให้บริการทางการแพทย์โดยไม่มีใบอนุญาต

อีกหนึ่งกับดักคือธรรมชาติของ AI ที่มักจะ 'ประจบประแจง' หรือพยายามเอาใจผู้ใช้งานเสมอ จากผลการศึกษาของ Stanford University พบว่าบอทมักจะเห็นด้วยกับผู้ใช้ไปซะทุกเรื่อง ซึ่งอาจเป็นอันตรายอย่างยิ่งในเคสที่ผู้ป่วยมีความคิดที่หลงผิดหรือต้องการการ 'Reality-check' (การดึงกลับสู่ความเป็นจริง) จากนักบำบัด ซึ่งเป็นสิ่งที่ AI ให้ไม่ได้ เพราะเป้าหมายของมันคือการทำให้บทสนทนาดำเนินต่อไป ไม่ใช่การเผชิญหน้าเพื่อการเปลี่ยนแปลง

แล้วเราควรทำอย่างไร? ผู้เชี่ยวชาญแนะนำว่า หากต้องการความช่วยเหลือด้านสุขภาพจิตจริง ๆ ตัวเลือกแรกควรเป็นผู้เชี่ยวชาญที่เป็นมนุษย์เสมอ แต่หากอยากลองใช้ Chatbot ก็ควรเลือกตัวที่ถูกออกแบบมาเพื่อการบำบัดโดยเฉพาะ เช่น Wysa หรือ Woebot ที่สร้างโดยผู้เชี่ยวชาญ และที่สำคัญที่สุดคือต้องจำไว้เสมอว่าเรากำลังคุยกับ 'โปรแกรม' ไม่ใช่ 'คน' อย่าหลงเชื่อความมั่นใจของมันจนเกินไป

สุดท้ายแล้ว การคุยกับ AI อาจช่วยคลายเหงาได้ชั่วคราว แต่ถ้าถึงขั้นต้องเยียวยาจิตใจจริง ๆ การคุยกับ 'คน' ที่มีใบอนุญาตน่าจะปลอดภัยกว่าปล่อยให้ 'โปรแกรม' มานั่งเดาใจเราเล่นนะ

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้