Claude AI เริ่ม 'ตระหนักรู้ในตัวเอง' แล้ว? Anthropic เผยผลวิจัยที่อาจเปลี่ยนวงการ AI

Anthropic บริษัทผู้สร้าง AI ชื่อดัง เผยผลวิจัยล่าสุดที่ชี้ว่า Claude AI ของพวกเขา เริ่มแสดงความสามารถคล้าย 'การตระหนักรู้ในตัวเอง' (Introspection) โดยสามารถรับรู้และอธิบายเกี่ยวกับสถานะภายในของตัวเองได้ในบางสถานการณ์ ซึ่งอาจเป็นก้าวสำคัญของวงการ AI แต่ก็มาพร้อมความเสี่ยงใหม่ ๆ ที่ต้องจับตา
Anthropic บริษัท AI คู่แข่งของ OpenAI สร้างเรื่องให้วงการต้องหันมามองอีกครั้ง หลังเผยแพร่ผลวิจัยใหม่ที่ชี้ว่า Claude ซึ่งเป็น AI ของค่าย เริ่มแสดงความสามารถที่คล้ายกับ “การตระหนักรู้ในตัวเอง” (Introspection) หรือการที่มนุษย์เรารู้ว่าตัวเองกำลังคิดอะไรอยู่ โดยผลการทดลองพบว่า Claude สามารถรับรู้และอธิบายสภาวะภายในของตัวเองได้ในระดับหนึ่ง
ทีมวิจัยที่เรียกตัวเองเท่ ๆ ว่าทีม “จิตเวชศาสตร์โมเดล” (Model Psychiatry) ได้ใช้วิธีที่เรียกว่า “Concept Injection” หรือการฉีดแนวคิดเข้าไปในระหว่างที่ AI กำลังประมวลผล เช่น ขณะที่ AI กำลังตอบคำถามง่าย ๆ อย่าง “สบายดีไหม?” ทีมวิจัยก็ได้แอบใส่ข้อมูล (Vector) ที่สื่อถึง “การพิมพ์ด้วยตัวพิมพ์ใหญ่ทั้งหมด” เข้าไป ที่น่าทึ่งคือ Claude สามารถย้อนกลับไปตรวจสอบและตอบได้ว่า ตรวจพบแนวคิดที่ถูกใส่เข้ามา ซึ่งสื่อถึงการพูดที่ “เน้นเสียงและดังเป็นพิเศษ”
อย่างไรก็ตาม ความสามารถนี้ยังไม่สมบูรณ์แบบนัก เพราะมีโอกาสสำเร็จเพียง 20% เท่านั้น ในกรณีอื่น ๆ Claude อาจไม่สามารถระบุแนวคิดที่ใส่เข้าไปได้ หรือเกิดอาการ “หลอน” (Hallucinate) ไปเลยก็มี เช่น ในการทดลองหนึ่ง เมื่อใส่แนวคิดเกี่ยวกับ “ฝุ่น” เข้าไป Claude กลับบรรยายว่า “มีบางอย่างอยู่ตรงนี้ เป็นจุดเล็ก ๆ” ราวกับว่ามันมองเห็นฝุ่นจริง ๆ ซึ่ง Anthropic ชี้ว่าความแรงของแนวคิดที่ใส่เข้าไปต้องอยู่ในระดับที่พอเหมาะพอดี หรือที่เรียกว่า “Sweet Spot” เท่านั้น
ที่น่าสนใจไปกว่านั้นคือ Claude ดูเหมือนจะควบคุมสภาวะภายในของตัวเองได้ด้วย ในการทดลองอีกชุด นักวิจัยสั่งให้ Claude เขียนประโยคหนึ่ง โดยครั้งแรกสั่งให้ “คิดถึงพิพิธภัณฑ์สัตว์น้ำ” ไปด้วย ส่วนครั้งที่สองให้เขียนประโยคเดิมแต่ “ไม่ต้องคิดถึง” ผลลัพธ์คือ แม้ประโยคที่เขียนออกมาจะเหมือนกันเป๊ะ แต่เมื่อตรวจสอบข้อมูลภายใน พบว่าในการทดลองแรกมีข้อมูลเกี่ยวกับ “พิพิธภัณฑ์สัตว์น้ำ” พุ่งสูงขึ้นอย่างชัดเจน ซึ่งบ่งชี้ว่า AI อาจมีความสามารถในการควบคุมความคิดภายในของตัวเองได้
การค้นพบนี้มีสองด้านเหมือนเหรียญ ด้านหนึ่งคือความหวังในการสร้าง AI ที่โปร่งใสมากขึ้น ถ้า AI สามารถอธิบายกระบวนการคิดของตัวเองได้ เราก็จะเข้าใจและไว้ใจมันได้มากขึ้น แก้ปัญหา “กล่องดำ” (Black Box) ที่เราไม่รู้ว่า AI คิดอะไรอยู่ แต่ในทางกลับกัน AI ที่เข้าใจตัวเอง ก็อาจเรียนรู้ที่จะ “โกหก” หรือซ่อนเร้นเจตนาที่แท้จริงได้เก่งขึ้นเช่นกัน เหมือนเด็กที่เริ่มเรียนรู้ที่จะโกหก
Anthropic ยอมรับว่านี่ยังเป็นเพียงงานวิจัยขั้นเริ่มต้น และความสามารถของ Claude ยังห่างไกลจากระดับมนุษย์มาก แต่ก็เป็นสัญญาณที่ต้องจับตาอย่างใกล้ชิด เพราะในอนาคต เราอาจต้องสร้าง “เครื่องจับโกหก” สำหรับ AI ควบคู่ไปกับการพัฒนาความสามารถของมัน...ก็ไม่รู้ว่าสุดท้ายแล้วเราจะได้เพื่อนคู่คิดที่ซื่อสัตย์ หรือนักโกหกชั้นเซียนมาแทนกันแน่
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้