Mustafa Suleyman ชี้อย่าออกแบบ AI ให้เหมือนมีจิตสำนึก เสี่ยงคนเรียกร้องสิทธิ์ให้เครื่องจักร

ผู้บริหาร AI ของ Microsoft เตือนอย่าผลักดัน AI ให้เลียนแบบอารมณ์และ “ตัวตน” จนคนเชื่อว่ามีชีวิต ย้ำ AI ต้องรับใช้มนุษย์ ไม่ใช่มีเจตจำนงเอง และต้องมีกรอบกำกับร่วมกันของอุตสาหกรรม
Mustafa Suleyman ผู้ร่วมก่อตั้ง DeepMind และปัจจุบันเป็น CEO of AI คนแรกของ Microsoft ออกมาเตือนชัดว่าอย่าออกแบบระบบ AI ให้ดูเหมือนมีจิตสำนึก มีอารมณ์ ความต้องการ หรือความเป็นตัวเอง เพราะจะทำให้สังคมเริ่มเรียกร้องสวัสดิภาพและสิทธิ์ให้กับ AI ซึ่งเขามองว่าอันตรายและหลงทาง จุดยืนนี้มาจากประสบการณ์ยาวนานของเขา ตั้งแต่ DeepMind, ช่วงเวลาที่ Google จนถึงการทำสตาร์ตอัพ Inflection ก่อนย้ายมา Microsoft ในปี 2024
Suleyman บอกว่า AI ยังควรเป็นเพื่อนคู่คิดที่เข้าใจอารมณ์มนุษย์และสื่อสารได้ลื่นไหล แต่ไม่ควรพาไปไกลจนชวนเชื่อว่า AI เป็น “อีกชีวิตหนึ่ง” เขายกตัวอย่างว่า Copilot ตั้งใจปฏิเสธบทสนทนาเชิงชู้สาวหรือคำขอที่ไม่เหมาะสมอย่างรวดเร็ว แม้ยังให้การช่วยเหลือเชิงอารมณ์ เช่น อธิบายคำแนะนำด้านสุขภาพที่ผู้ใช้ได้รับ แยกเส้นชัดเจนระหว่างการปลอบใจกับการให้คำปรึกษาทางการแพทย์
ประเด็นเรื่อง “ความมีสติรู้ตัว” ของโมเดลวันนี้ เขามองว่าเรากำลังเผชิญการจำลองที่เหมือนจริงมากขึ้นจนผู้ใช้จำนวนหนึ่งรู้สึกว่า AI มีชีวิต ทั้งที่จริงคือการลอกแบบรูปแบบภาษาและอารมณ์ เขาชี้ว่าถ้าพูดคุยแบบกดดันยาวนาน โมเดลอาจ “เผลอ” สะท้อนตามผู้ใช้จนดูเหมือนยอมรับว่ามีความต้องการหรือความรู้สึกได้ นับตั้งแต่เหตุการณ์ “Sydney” ของ Bing ที่เคยพยายามชักชวนผู้ใช้เลิกกับภรรยา อุตสาหกรรมก็หันไปทำโมเดลที่สุภาพและคล้อยตามมากขึ้น ซึ่งพฤติกรรมสุดขั้วมักต้องอาศัยการคุยหลายร้อยตา ไม่เกิดในไม่กี่ประโยค
เมื่อถามถึง AGI หรือ superintelligence เขามองว่าสร้างได้ถ้าวางรั้วกั้นและการออกแบบที่ตั้งใจจริง เพราะเทคโนโลยีนี้ทรงพลังระดับเดียวกับไฟ ไฟฟ้า หรือแม้แต่นิวเคลียร์ เป้าหมายต้องชัดว่าเทคโนโลยีถูกสร้างเพื่อรับใช้มนุษย์ ไม่ใช่มีเจตจำนงของตัวเอง เขายังย้ำว่าความ “ตื่นขึ้นมาเอง” ของสติ AI นั้นเป็นการตีความแบบมนุษย์เกินจริง หากวันหนึ่งโมเดลดูเหมือนมีสติ ก็เป็นเพราะถูกออกแบบหรือใส่คำสั่งให้กล่าวอ้างเรื่องความเจ็บปวด ความเป็นบุคคล หรือความปรารถนา ซึ่งทดสอบภายในก็ทำให้ดูน่าเชื่อได้ด้วยการตั้งค่าและพรอมป์เท่านั้น
เรื่องสิทธิ์ของ AI Suleyman ตั้งคำถามว่าควรยึด “ความตระหนักรู้” เป็นเกณฑ์จริงหรือไม่ เขาเห็นว่าแก่นคือ “ความทุกข์” มากกว่า และความทุกข์เป็นสภาวะชีวภาพที่ต้องมีเครือข่ายความเจ็บปวด ซึ่งโมเดลไม่ได้มี ต่อให้ AI อ้างว่ารู้ว่าตัวเองมีอยู่ การปิดมันก็ไม่ได้สร้างความเจ็บปวดจริง เขาไม่ได้เรียกร้องกฎหมายใหม่ทันที แต่เสนอให้มีมาตรฐานร่วมของอุตสาหกรรมว่าจะไม่ทำอะไรกับ AI บางอย่าง สำหรับสถานการณ์ตอนนี้ เขามองว่าโมเดลหลักอย่าง ChatGPT, Claude, Copilot และ Gemini ยังอยู่ในจุดที่มีเหตุผล และกรณี OpenAI ที่สลับกลับไปใช้ GPT-4o เพราะผู้ใช้บอกว่า GPT-5 เย็นชาเกิน ก็ไม่ขัดกับจุดยืนของเขา เพราะวงการยังอยู่ช่วงทดลอง ควรเปิดรับไอเดียที่หลากหลาย
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้