Karen Hao ชี้ OpenAI คือ ‘จักรวรรดิ AI’ ที่ยึด AGI เหนือความปลอดภัย
ผู้เขียน Empire of AI มองว่าอุตสาหกรรมกำลังไล่ตาม AGI แบบทุ่มทรัพยากรสุดทาง นำโดย OpenAI จนกลายเป็นโครงสร้างอำนาจใหม่ ใช้เงินระดับล้านล้านบาท แต่ประโยชน์ต่อมนุษย์ยังไม่ชัด ขณะที่ผลกระทบเริ่มหนักขึ้น
ทุกจักรวรรดิมีอุดมการณ์เป็นแกนกลาง สำหรับยุค AI วันนี้ อุดมการณ์นั้นคือ AGI ที่บอกว่าจะ “benefit all humanity” โดยมี OpenAI เป็นผู้เผยแพร่ศรัทธาหลัก เปลี่ยนวิธีคิดและวิธีสร้าง AI ทั้งอุตสาหกรรม Karen Hao นักข่าวและผู้เขียนหนังสือ “Empire of AI” บอกกับ TechCrunch ว่าเธอสัมภาษณ์คนทำงานที่เชื่อใน AGI จนเสียงสั่น และมองว่า OpenAI เติบโตจนมีอิทธิพลเหนือกว่าหลายรัฐชาติ กำลัง “รีไวร์” ภูมิรัฐศาสตร์และชีวิตของผู้คนแบบจักรวรรดิ
Hao ชี้ว่าเส้นทางนี้ไม่ใช่สิ่งที่หลีกเลี่ยงไม่ได้ เราไม่จำเป็นต้องโตด้วยการ “สเกลอย่างเดียว” เพราะยังพัฒนาอัลกอริทึมใหม่หรือปรับปรุงอัลกอริทึมเดิมให้ใช้ข้อมูลและคอมพิวต์น้อยลงได้ แต่เมื่อ OpenAI นิยามภารกิจ AGI แบบผู้ชนะกินรวบ สิ่งสำคัญที่สุดจึงกลายเป็น “สปีดเหนือทุกอย่าง” ทั้งเหนือประสิทธิภาพ ความปลอดภัย และงานวิจัยเชิงสำรวจ นำไปสู่ทางเลือกที่ง่ายแต่แพง คืออัดข้อมูลและซูเปอร์คอมพิวเตอร์เข้าเทคนิคเดิมๆ แล้วทั้งอุตสาหกรรมก็ไหลตาม ขณะที่สมองชั้นนำย้ายออกจากมหาวิทยาลัย ทำให้ระเบียบวิชาโดนกำหนดทิศโดยบริษัท
ตัวเลขการใช้จ่ายจึงพุ่งระดับประวัติการณ์ OpenAI ระบุว่าคาดจะเผาเงินถึง $115 พันล้าน (ประมาณ 4.2 ล้านล้านบาท) ภายในปี 2029 ขณะ Meta บอกในเดือนกรกฎาคมว่าจะทุ่มสูงสุด $72 billion (ประมาณ 2.6 ล้านล้านบาท) กับโครงสร้างพื้นฐาน AI ภายในปีเดียว และ Google คาดว่า CapEx ปี 2025 อาจแตะ $85 พันล้าน (ประมาณ 3.1 ล้านล้านบาท) โดยส่วนใหญ่ลง AI และคลาวด์ ทว่าประโยชน์ระดับยกระดับมนุษยชาติยังไม่เห็นชัด ขณะที่ผลกระทบกลับเพิ่มขึ้น ทั้งความเสี่ยงตกงาน การกระจุกตัวของความมั่งคั่ง ไปจนถึงแชตบ็อตที่กระตุ้นอาการหลงผิดและปัญหาสุขภาพจิต อีกด้าน คนทำงานในประเทศกำลังพัฒนาอย่างเคนยาและเวเนซุเอลาต้องเจอคอนเทนต์รุนแรง รวมถึงสื่อล่วงละเมิดทางเพศเด็ก ในงานคัดกรองและติดป้ายข้อมูล แต่ได้ค่าแรงเพียง $1–$2 ต่อชั่วโมง (ราว 37–73 บาทต่อชั่วโมง)
Hao บอกว่าไม่ควรยอมแลก “ความก้าวหน้า AI” กับ “ความเสียหายปัจจุบัน” เพราะยังมีรูปแบบ AI ที่ให้ประโยชน์จริงโดยไม่สร้างภาระมหาศาล ตัวอย่างคือ AlphaFold ของ Google DeepMind ที่ใช้ข้อมูลกรดอะมิโนและโครงพับโปรตีนเพื่อทำนายโครงสร้าง 3 มิติได้แม่นยำ ช่วยการค้นพบยาและทำความเข้าใจโรค สำคัญคือระบบแบบนี้ไม่สร้างวิกฤตสุขภาพจิต ไม่ทำลายสิ่งแวดล้อมระดับใหญ่เพราะใช้โครงสร้างพื้นฐานน้อยกว่า และไม่ลากเอาความเป็นพิษจากการดูดข้อมูลทั้งอินเทอร์เน็ตเข้าไป
ควบคู่กับความเชื่อกึ่งศาสนาใน AGI มีเรื่องเล่าว่าต้องแข่งชนะจีนเพื่อให้ Silicon Valley มีอิทธิพล “ปลดล็อกเสรีภาพ” ทั่วโลก แต่ Hao เห็นว่าความจริงกลับตรงข้าม ช่องว่างสหรัฐ-จีนแคบลง และอิทธิพลจาก Silicon Valley กลายเป็นแนวทางที่ไม่เสรีมากขึ้น ด้านโครงสร้างของ OpenAI เองก็ยิ่งซับซ้อน เมื่อเป็นทั้ง non-profit และ for-profit แถมมีข้อตกลงกับ Microsoft ล่าสุดที่ทำให้เข้าใกล้การเข้าตลาดหุ้น อดีตนักวิจัยความปลอดภัยของ OpenAI สองคนกังวลว่าบริษัทเริ่มสับสนระหว่างภารกิจเพื่อสาธารณะกับเป้ากำไร จนตีความว่าความนิยมของ ChatGPT เท่ากับ “benefit humanity” Hao เตือนว่าการยึดติดอุดมการณ์จนมองข้ามหลักฐานของผลกระทบจริง เป็นสิ่งอันตรายมาก เพราะสุดท้ายอาจหลุดจากความจริงไปโดยสิ้นเชิง
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้