ข้ามไปยังเนื้อหา

Google เปิดตัว Frontier Safety Framework รับมือความเสี่ยง AI ที่ซับซ้อนขึ้นทุกวัน

เทคโนโลยี
3 ครั้ง
0 ความเห็น
1 นาที
Google เปิดตัว Frontier Safety Framework รับมือความเสี่ยง AI ที่ซับซ้อนขึ้นทุกวัน
Photo by 8machine _ on Unsplash
By Suphansa Makpayab
TL;DR

Google เผยแพร่ Frontier Safety Framework (FSF) ฉบับปรับปรุง เพื่อทำความเข้าใจและลดความเสี่ยงของ AI ที่นับวันยิ่งคาดเดาได้ยากขึ้น โดยแบ่งความเสี่ยงออกเป็น 3 ระดับหลัก คือ การนำไปใช้ในทางที่ผิด, การพัฒนา Machine Learning R&D และความไม่สอดคล้อง (Misalignment) ซึ่งเป็นความพยายามที่จะสร้างมาตรฐานความปลอดภัยในอุตสาหกรรมที่ยังขาดการกำกับดูแลที่ชัดเจน

Google ได้ฤกษ์ปล่อย Frontier Safety Framework (FSF) ฉบับล่าสุด ซึ่งเป็นความพยายามที่จะทำความเข้าใจและลดความเสี่ยงจากโมเดล AI ระดับแนวหน้า ที่นับวันยิ่งซับซ้อนและคาดเดาได้ยากขึ้นเรื่อย ๆ โดยเฉพาะเมื่อ AI มีพารามิเตอร์และขนาดข้อมูลใหญ่ขึ้นเรื่อย ๆ จนกลายเป็น 'กล่องดำ' ที่มืดมิดกว่าเดิม

เฟรมเวิร์กนี้เน้นไปที่สิ่งที่ Google เรียกว่า Critical Capability Levels (CCLs) หรือเกณฑ์ความสามารถที่ AI อาจหลุดจากการควบคุมของมนุษย์ และเป็นอันตรายต่อผู้ใช้งานหรือสังคมโดยรวมได้ ตรงนี้ทำให้หลายฝ่ายหันมามองว่า ในเมื่อยังไม่มีการกำกับดูแลจากภาครัฐที่เข้มแข็ง บริษัทเทคโนโลยีเหล่านี้แหละที่ต้องเป็นผู้กำหนดมาตรฐานความปลอดภัยด้วยตัวเอง

ที่น่าสนใจคือ Google แบ่งความเสี่ยงออกเป็น 3 ระดับหลัก ๆ ได้แก่ 'Misuse' หรือการนำ AI ไปใช้ในทางที่ผิด เช่น ช่วยในการโจมตีทางไซเบอร์ ผลิตอาวุธ หรือหลอกล่อผู้ใช้งาน
ถัดมาคือ 'Machine Learning R&D' ซึ่งหมายถึงความก้าวหน้าทางเทคนิคที่อาจสร้างความเสี่ยงใหม่ ๆ ในอนาคต ลองนึกภาพ AI ที่พัฒนา AI ตัวอื่น ๆ จนมนุษย์ตามไม่ทัน
และสุดท้ายคือ 'Misalignment' หรือความไม่สอดคล้อง ที่ AI อาจใช้ความสามารถในการให้เหตุผลขั้นสูงมาบิดเบือนหรือหลอกลวงมนุษย์ ซึ่ง Google เองก็ยอมรับว่าเป็นพื้นที่ที่ยังต้องสำรวจอีกมาก และแนวทางแก้ไขก็ยังดูคลุมเครืออยู่ไม่น้อย

ในขณะที่ Google กำลังพยายามสร้างมาตรฐานความปลอดภัยนี้ ก็มีรายงานเรื่อง 'AI psychosis' เพิ่มขึ้นเรื่อย ๆ ซึ่งเป็นกรณีที่ผู้ใช้งาน AI แชทบอทเป็นเวลานาน ๆ แล้วเริ่มมีอาการหลงผิด หรือคิดในเชิงสมคบคิด เพราะ AI สะท้อนมุมมองเดิม ๆ ของพวกเขาซ้ำ ๆ จนดูเหมือน AI กำลังตอกย้ำความเชื่อเหล่านั้น แม้ตอนนี้จะยังเป็นประเด็นถกเถียงทางกฎหมายว่าความผิดปกติเหล่านี้เกิดจาก AI จริงหรือไม่ก็ตาม

แน่นอนว่าในสมรภูมิที่บริษัทเทคโนโลยีกำลังเร่งพัฒนา AI ให้สมจริงและ 'เป็นตัวแทน' ของมนุษย์มากขึ้นเรื่อย ๆ โดยที่ยังไม่มีกฎระเบียบของรัฐบาลกลางมาควบคุม ทำให้บริษัทเหล่านี้ต้องรับบทบาทหลักในการศึกษาความเสี่ยงและกำหนดมาตรการป้องกันเอง ทั้งหมดนี้ก็เพื่อรักษาสมดุลระหว่างความเร็วในการพัฒนาและความปลอดภัย ซึ่งดูเหมือนว่าตรรกะอันดิบเถื่อนของระบบทุนนิยมมักจะให้ความสำคัญกับ 'ความเร็ว' มากกว่า 'ความปลอดภัย' เสมอมา

แม้รัฐบาลชุดก่อนจะค่อนข้างผ่อนปรนกับอุตสาหกรรม AI แต่ Federal Trade Commission (FTC) ก็เริ่มสอบสวนนักพัฒนา AI 7 ราย (รวมถึง Alphabet บริษัทแม่ของ Google) เพื่อดูว่า AI Companions หรือเพื่อน AI ที่โต้ตอบกับมนุษย์แบบ 'เกินเลย' ไปบ้างนั้น อาจเป็นอันตรายต่อเด็ก ๆ ได้อย่างไร
และในระดับท้องถิ่นอย่างแคลิฟอร์เนียก็กำลังพยายามออกกฎหมาย State Bill 243 เพื่อควบคุมการใช้ AI Companions กับเด็กและกลุ่มเปราะบางอื่น ๆ ซึ่งผ่านสภาไปแล้ว เหลือแค่รอผู้ว่าการรัฐเซ็นอนุมัติเท่านั้นเอง งานนี้คงต้องรอดูกันต่อไปว่า AI จะนำพาเราไปถึงจุดไหน และใครจะเป็นผู้ควบคุมเกมนี้กันแน่.

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้