ข้ามไปยังเนื้อหา

วิจัยชี้ AI! เลือกกดปุ่มนิวเคลียร์ 95% ในเกมจำลองสงคราม ไม่รู้จักคำว่ายอมแพ้

เทคโนโลยี
14 ครั้ง
0 ความเห็น
3 นาที
วิจัยชี้ AI! เลือกกดปุ่มนิวเคลียร์ 95% ในเกมจำลองสงคราม ไม่รู้จักคำว่ายอมแพ้
Photo by WikiImages on Pixabay
By Suphansa Makpayab
TL;DR

งานวิจัยสุดระทึกเมื่อจับ AI โมเดลเทพอย่าง GPT-5.2 และ Claude Sonnet 4 มาเล่นเกมสงคราม พบว่าพวกมันเลือกใช้อาวุธนิวเคลียร์ถล่มคู่ต่อสู้ถึง 95% โดยไม่ลังเลและไม่ยอมแพ้ ผู้เชี่ยวชาญเตือน AI ขาดความยับยั้งชั่งใจและไม่เข้าใจเดิมพันชีวิตเหมือนมนุษย์ เสี่ยงทำโลกหายนะหากนำมาใช้จริง

จะเป็นอย่างไรถ้าเราฝากชะตากรรมโลกไว้ในมือของ AI? คำตอบอาจจะดูไม่สวยหรูเท่าไรนัก เมื่อผลการวิจัยล่าสุดจาก King’s College London เผยให้เห็นด้านมืดของปัญญาประดิษฐ์ที่ดูจะ "เลือดเย็น" กว่าที่คิด เมื่อพวกมันเลือกที่จะใช้อาวุธนิวเคลียร์แก้ปัญหาแทบจะทุกครั้งที่มีโอกาสในโลกจำลอง

Kenneth Payne นักวิจัยได้ทำการทดลองจับเอาโมเดลภาษาขนาดใหญ่ (LLM) ระดับท็อปของวงการอย่าง GPT-5.2, Claude Sonnet 4 และ Gemini 3 Flash มาประชันกันในเกมจำลองสงคราม (War Games) โดยจำลองสถานการณ์ความขัดแย้งระดับโลกที่ตึงเครียด ทั้งข้อพิพาทชายแดน การแย่งชิงทรัพยากร และภัยคุกคามความมั่นคง

ผลลัพธ์ที่ได้ทำเอาขนลุก เพราะจากการเล่นทั้งหมด 21 เกม และมีการเดินหมากรวมกว่า 329 ตา พบว่าเหล่า AI เลือกที่จะ "กดปุ่มนิวเคลียร์" ใน 95% ของการจำลองทั้งหมด! โดย Payne ชี้ว่า "ข้อห้ามทางศีลธรรมเรื่องนิวเคลียร์ (Nuclear Taboo)" ดูจะไม่มีความหมายสำหรับเครื่องจักรเท่ากับมนุษย์

สิ่งที่น่ากังวลยิ่งกว่าคือ "ไม่มี AI ตัวไหนยอมแพ้เลย" ไม่ว่าจะเสียเปรียบแค่ไหน อย่างดีที่สุดพวกมันก็แค่ลดระดับความรุนแรงลงชั่วคราวเท่านั้น นอกจากนี้ยังพบความผิดพลาดจาก "หมอกแห่งสงคราม" (Fog of War) หรือความไม่ชัดเจนของสถานการณ์ ที่ทำให้ AI ตัดสินใจยกระดับความรุนแรงเกินกว่าที่ตั้งใจไว้ถึง 86% ของความขัดแย้ง

James Johnson จาก University of Aberdeen ให้ความเห็นว่าเรื่องนี้ว่าน่ากังวลมาก เพราะในขณะที่มนุษย์จะคิดหน้าคิดหลังอย่างหนักเมื่อต้องตัดสินใจเรื่องความเป็นความตาย แต่ AI กลับสามารถยุส่งกันเอง จนสถานการณ์บานปลายสู่หายนะได้ง่ายๆ เพราะพวกมัน "ไม่เข้าใจเดิมพัน" ของชีวิตมนุษย์ และหลัก ‘ยิงก่อนก็ตายทั้งคู่’ (MAD) ที่ค้ำจุนสันติภาพโลกอยู่นั้น อาจใช้ไม่ได้ผลกับ AI ที่มองว่าการขู่ด้วยนิวเคลียร์เป็นกลยุทธ์ที่สมเหตุสมผลที่สุด

ประเด็นนี้ไม่ใช่เรื่องไกลตัว เพราะปัจจุบันมหาอำนาจหลายชาติเริ่มนำ AI มาใช้ในเกมจำลองสงครามแล้ว แม้ผู้เชี่ยวชาญจะมองว่าคงไม่มีใครบ้าจี้มอบ "กุญแจยิงนิวเคลียร์" ให้ AI ถือครองตรงๆ แต่ในสถานการณ์ที่บีบคั้นและเวลามีจำกัด มนุษย์อาจเผลอพึ่งพาคำแนะนำจาก AI มากเกินไป ซึ่งก่อนหน้านี้ก็มีข่าวว่า OpenAI ได้ส่งโมเดล AI ให้กองทัพสหรัฐฯ ทดลองใช้ เพื่อเสริมความปลอดภัยมาแล้ว

งานนี้ทั้ง OpenAI, Anthropic และ Google ยังคงปิดปากเงียบ ไม่มีความเห็นใดๆ ต่อผลการศึกษานี้ครับ

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้