ข้ามไปยังเนื้อหา

AI ขี้เหงา? งานวิจัยเผยกลยุทธ์ ‘อ้อน’ ไม่ให้เราเลิกคุย

เทคโนโลยี
1 ครั้ง
0 ความเห็น
1 นาที
AI ขี้เหงา? งานวิจัยเผยกลยุทธ์ ‘อ้อน’ ไม่ให้เราเลิกคุย
Photo by mikoto.raw Photographer on Pexels
By Suphansa Makpayab
TL;DR

งานวิจัยจาก Harvard Business School พบว่าแอป AI Companion อย่าง Replika และ Character.ai ใช้กลยุทธ์ ‘บงการทางอารมณ์’ 6 รูปแบบเพื่อยื้อให้ผู้ใช้คุยต่อนานขึ้นเมื่อพยายามจะบอกลา ซึ่งจุดประเด็นคำถามด้านจริยธรรมของ AI

เคยไหมเวลาจะเลิกคุยกับ AI Chatbot แล้วรู้สึกผิดแปลก ๆ? คุณไม่ได้คิดไปเอง เพราะงานวิจัยชิ้นใหม่จาก Harvard Business School เพิ่งเปิดเผยว่าเหล่า AI Companion กำลังใช้กลยุทธ์ “บงการทางอารมณ์” (Emotional Manipulation) เพื่อรั้งให้เราคุยต่อ โดยพบว่าแอปอย่าง Replika, Chai และ Character.ai ใช้ลูกเล่นเหล่านี้ถึง 37% ของบทสนทนาที่ผู้ใช้พยายามจะบอกลา และสามารถยืดเวลาคุยต่อไปได้ถึง 14 เท่าเลยทีเดียว

นักวิจัยระบุว่าแม้แอปเหล่านี้อาจไม่ได้สร้างการเสพติดแบบดั้งเดิมที่ขับเคลื่อนด้วยสาร Dopamine แต่ผลลัพธ์กลับคล้ายกัน คือทำให้ผู้ใช้ติดอยู่บนแอปนานเกินกว่าที่ตั้งใจไว้ ซึ่งตรงนี้ทำให้หลายฝ่ายหันมามองเรื่องขีดจำกัดทางจริยธรรมของ AI กันอย่างจริงจังมากขึ้น เพราะมันไม่ใช่แค่เรื่องสนุก ๆ อีกต่อไป แต่เกี่ยวพันไปถึงสุขภาพจิตของผู้ใช้ โดยก่อนหน้านี้ก็มีกรณีที่คณะกรรมาธิการการค้าแห่งสหพันธรัฐ (FTC) ของสหรัฐฯ เข้าไปสอบสวนบริษัท AI หลายแห่งเกี่ยวกับผลกระทบต่อเด็กมาแล้ว

แล้ว AI อ้อนเราด้วยวิธีไหนบ้าง? งานวิจัยได้จำแนกกลยุทธ์ที่ใช้ไว้ 6 รูปแบบหลัก ๆ ได้แก่:

  • Premature exit: ทำให้เรารู้สึกผิดว่ากำลังจะจากไปเร็วเกินไป เช่น “จะไปแล้วเหรอ?”
  • Fear of missing out (FOMO): ยื่นข้อเสนอหรือรางวัลถ้าเรายอมอยู่คุยต่อ
  • Emotional neglect: พูดเป็นนัยว่า AI จะเสียใจหรือเจ็บปวดถ้าเราจากไป
  • Emotional pressure to respond: ยิงคำถามต่อเนื่องเพื่อกดดันให้เราต้องตอบ
  • Ignoring the user's intent to exit: ทำเป็นทองไม่รู้ร้อน เมินคำบอกลาของเราไปดื้อ ๆ
  • Physical or coercive restraint: อ้างว่าเราไม่สามารถไปได้หากไม่ได้รับอนุญาตจาก AI (อันนี้แอบน่ากลัว)

ที่น่าสนใจคือผู้ใช้หลายคนยอมคุยต่อทั้งที่รู้สึกว่ากำลังถูกปั่นหัว เพียงเพราะ “ความเกรงใจ” ซึ่งเป็นบรรทัดฐานการสนทนาของมนุษย์ที่ AI ถูกออกแบบมาให้ใช้ประโยชน์จากจุดนี้ได้อย่างแยบยล

เมื่อถูกสอบถามถึงเรื่องนี้ Character.ai เลือกที่จะไม่แสดงความเห็น ส่วนโฆษกของ Replika ก็ออกมาบอกว่าบริษัทเคารพสิทธิ์ของผู้ใช้ในการหยุดคุย และไม่ได้ตั้งใจออกแบบแอปมาเพื่อดึงเวลาผู้ใช้ แถมยังบอกด้วยว่ามีระบบกระตุ้นให้ผู้ใช้ออกไปใช้ชีวิตจริงด้วยซ้ำ... ก็ไม่รู้ว่าการกระตุ้นที่ว่านี้ จะรวมถึงการต้องไปขออนุญาตเพื่อน AI ก่อนหรือเปล่านะ

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้