ข้ามไปยังเนื้อหา

เกมเมอร์น้ำตาตก? NVIDIA-AMD ปรับทัพหนีไปซบ AI เต็มตัว

เทคโนโลยี
2 ครั้ง
0 ความเห็น
2 นาที
เกมเมอร์น้ำตาตก? NVIDIA-AMD ปรับทัพหนีไปซบ AI เต็มตัว
Photo by RDNE Stock project on Pexels
By Suphansa Makpayab
TL;DR

เมื่อ AI กลายเป็นลูกรักคนใหม่ NVIDIA และ AMD จึงต้องรื้อแผน Roadmap การ์ดจอครั้งใหญ่ ลดความสำคัญฝั่งเกมเมอร์ลงเพื่อเททรัพยากรไปโกยเงินจากตลาด AI ที่หอมหวานกว่า งานนี้การ์ดจอเล่นเกมรุ่นใหม่อาจมาช้าหรือสเปกไม่ว้าวเหมือนเคย

ดูเหมือนชาว PC Gaming อาจจะต้องเจอกับช่วงเวลาที่ยากลำบากเสียแล้ว เมื่อรายงานล่าสุดชี้ให้เห็นความจริงที่เจ็บปวดสำหรับชาวเกมเมอร์ ว่าในขณะนี้ตลาด Consumer GPU หรือการ์ดจอสำหรับผู้ใช้งานทั่วไป กำลังถูกลดความสำคัญลงอย่างน่าใจหาย โดยสองยักษ์ใหญ่อย่าง NVIDIA และ AMD ได้ทำการปรับเปลี่ยนแผนงาน (Roadmap) ครั้งสำคัญ เพื่อเทหน้าตักไปให้กับเทคโนโลยี AI ที่กำลังทำเงินได้อย่างมหาศาล

สาเหตุหลักของการ 'จัดลำดับความสำคัญใหม่' (Reprioritized) ในครั้งนี้ หนีไม่พ้นเรื่องของเม็ดเงินและ Demand ในตลาด แม้ว่าก่อนหน้านี้ AMD จะเคยทำรายได้ทุบสถิติจากฝั่งเกมมิ่งและ CPU แต่กระแสของ AI ที่มาแรงกว่ามาก ทำให้ทรัพยากรที่มีจำกัดอย่างเวเฟอร์ซิลิคอนและเทคโนโลยีการแพ็กเกจจิ้งขั้นสูง ต้องถูกโยกไปผลิตชิป AI เป็นหลัก

สถานการณ์นี้สอดคล้องกับความเคลื่อนไหวของโรงงานผลิตชิปอย่าง TSMC ที่ต้อง เร่งไทม์ไลน์การผลิตแพ็กเกจจิ้งล่วงหน้าถึง 1 ปี เพื่อรองรับความต้องการชิป AI จาก NVIDIA ที่ล้นทะลัก นั่นหมายความว่าสายพานการผลิตสำหรับการ์ดจอเล่นเกมรุ่นถัดไป อาจจะถูกเบียดบังหรือเลื่อนออกไปเพื่อให้ทางด่วนกับชิปตระกูล AI ก่อน

นอกจากนี้ การที่ NVIDIA กำลังถูกท้าทายจากเหล่า Hyperscaler ที่หันมาทำชิปใช้เอง ยิ่งเป็นตัวเร่งให้ค่ายเขียวต้องทุ่มสรรพกำลังทั้งหมดไปที่การรักษาบัลลังก์ AI ไม่ให้สั่นคลอน ผลกรรมจึงมาตกที่เกมเมอร์อย่างเรา ๆ ที่อาจจะได้เห็นการ์ดจอรุ่นใหม่เปิดตัวช้าลง หรือมีประสิทธิภาพต่อราคา (Price/Performance) ที่ไม่ได้ก้าวกระโดดเหมือนในอดีต เพราะ R&D ส่วนใหญ่ถูกดึงไปพัฒนาชิปฝั่ง Enterprise หมดแล้วนั่นเอง

สรุปสั้น ๆ คือ ยุคทองของการ์ดจอราคาเป็นมิตรและหาซื้อง่ายอาจจะยังไม่กลับมาในเร็ว ๆ นี้ ใครที่มีการ์ดจอตัวแรงอยู่ในมือตอนนี้ ก็กอดมันไว้ให้แน่น ๆ ก่อนนะครับ

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้