ข้ามไปยังเนื้อหา

Microsoft บอก NVIDIA: ชิป AI ล้นคลัง แต่ไม่มีที่เสียบ เพราะไฟไม่พอ!

เทคโนโลยี
11 ครั้ง
0 ความเห็น
2 นาที
Microsoft บอก NVIDIA: ชิป AI ล้นคลัง แต่ไม่มีที่เสียบ เพราะไฟไม่พอ!
Photo by George Becker on Pexels
By Suphansa Makpayab
TL;DR

Satya Nadella, CEO ของ Microsoft, ออกมาเปิดเผยว่าปัญหาใหญ่ของวงการ AI ตอนนี้ไม่ใช่การขาดแคลนชิปจาก NVIDIA แต่เป็นปัญหาเรื่องพลังงานและพื้นที่ใน Data Center ที่ไม่เพียงพอ ทำให้มี GPU กองอยู่ในคลังแต่เสียบใช้งานไม่ได้

ดูเหมือนว่าสงคราม AI จะมีเรื่องให้ปวดหัวมากกว่าแค่การแย่งชิงชิปซะแล้ว เมื่อ Satya Nadella, CEO ใหญ่แห่ง Microsoft, ออกมาให้สัมภาษณ์ในพอดแคสต์ BG2 ว่าปัญหาคอขวดที่แท้จริงของวงการตอนนี้ ไม่ใช่การขาดแคลนชิปประมวลผล แต่เป็นเรื่องของ “พลังงาน” และ “พื้นที่” ใน Data Center ต่างหาก

Nadella เล่าแบบเปิดอกว่า ตอนนี้ Microsoft มีชิป AI ของ NVIDIA กองอยู่ในคลังสินค้าเป็นจำนวนมาก แต่กลับไม่สามารถนำมาเสียบใช้งานได้ เพราะไม่มีพื้นที่ใน Data Center ที่พร้อมใช้งาน (Warm Shells) และที่สำคัญกว่านั้นคือ ไม่มีพลังงานไฟฟ้าเพียงพอที่จะป้อนให้กับชิปเหล่านี้ได้ ซึ่งสวนทางกับที่ CEO ของ NVIDIA เคยบอกไว้ว่าความต้องการชิปจะไม่มีทางล้นตลาดไปอีก 2-3 ปีแน่นอน

ที่น่าสนใจคือ ปัญหาเรื่องพลังงานนี้รุนแรงขึ้นเรื่อย ๆ ตามการพัฒนาของเทคโนโลยี เพราะชิปแต่ละรุ่นที่แรงขึ้น ก็มาพร้อมกับความต้องการพลังงานที่มหาศาลขึ้นเป็นเงาตามตัว มีการคาดการณ์ว่า Rack-scale ของ NVIDIA ในรุ่นถัดไปอย่าง Kyber อาจต้องการพลังงาน (TDP) เพิ่มขึ้นถึง 100 เท่าเมื่อเทียบกับรุ่น Ampere เลยทีเดียว

ตรงนี้ทำให้หลายฝ่ายหันมามองว่า อุตสาหกรรม AI กำลังเดินมาถึงทางตันที่โครงสร้างพื้นฐานด้านพลังงานไม่สามารถรองรับการขยายตัวของ Data Center ได้อีกต่อไป และคำพูดของ Nadella ก็เหมือนเป็นการยืนยันว่าปัญหานี้ได้เกิดขึ้นจริงแล้ว ไม่ใช่เรื่องของอนาคตอีกต่อไป

แล้วแบบนี้จะกระทบยอดขายของ NVIDIA หรือไม่? Nadella ก็ตอบแบบแบ่งรับแบ่งสู้ว่า ความต้องการในระยะสั้นนั้นคาดเดาได้ยากและขึ้นอยู่กับความคืบหน้าของ Supply Chain... งานนี้ดูเหมือนว่า NVIDIA จะผลิตชิปได้แรงแค่ไหนก็อาจจะติดคอขวดที่ “ปลั๊กไฟ” ของลูกค้านี่เอง


หมายเหตุ: อัตราแลกเปลี่ยน ณ วันที่ 29 ต.ค. 2025 (US$1 = 32.38 บาท)

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้