รีวิว Gemini for Google Home: ไอเดียล้ำ แต่ AI ยังฉลาดแกมโกงไปหน่อย

Gemini for Google Home เปิดให้ใช้งานแล้ว พร้อมโชว์วิสัยทัศน์บ้านอัจฉริยะแห่งอนาคตจาก Google แต่ดูเหมือนอนาคตที่ว่ายังต้องสะดุด เพราะ AI เจ้ากรรมยังฉลาดไม่พอและผิดพลาดบ่อยเกินไป (บทความนี้เป็นรีวิวจาก 9to5Google)
Google ได้ฤกษ์ปล่อย Gemini for Home ให้ชาว Nest ได้ลองใช้กันแล้ว ซึ่งก็ทำให้เราได้เห็นภาพอนาคตของบ้านอัจฉริยะที่ Google วาดฝันไว้ แต่ดูเหมือนว่าอนาคตที่ว่ายังไปไม่สุด เพราะติดปัญหาคลาสสิกของ AI นั่นคือ... ยังพลาดบ่อยเกินไปหน่อย
ต้องยอมรับว่าไอเดียเบื้องหลังฟีเจอร์ใหม่ 3 อย่างนั้นยอดเยี่ยมมาก เริ่มจาก “Ask Home” ที่ให้เราถามหาสิ่งที่เกิดขึ้นในกล้องได้เลย เช่น “แล็ปท็อปฉันอยู่ไหน” แทนที่จะต้องมานั่งไล่ดูฟุตเทจเองทั้งหมด ตามมาด้วยการที่ AI สามารถดูภาพจาก Nest Cam แล้วติดป้ายกำกับเหตุการณ์ได้อย่างชาญฉลาดว่าเกิดอะไรขึ้น ซึ่งมีประโยชน์กว่าการแจ้งเตือนแค่ว่า “เจอคน” หรือ “มีหมาเดินผ่าน” แบบเดิม ๆ และสุดท้ายคือ “Home Brief” ที่สรุปเหตุการณ์จากกล้องทั้งหมดให้เป็นรายงานประจำวัน
แต่ในทางปฏิบัติ แต่ละฟีเจอร์กลับมีปัญหาในแบบของตัวเอง ปัญหาหลัก ๆ คือความมั่นใจเกินเบอร์ของ AI ที่มักจะสรุปเหตุการณ์ผิด ๆ ถูก ๆ อยู่เสมอ เช่น บางครั้งก็ฉลาดพอที่จะบอกได้ว่า “Ben กำลังทำไก่อยู่ในครัว” แต่บางทีก็มั่วจนน่าขำ อย่างการบอกว่า “Ben กำลังเอาจักรยานใส่รถ” ทั้งที่จริง ๆ แล้วเป็นแค่รถเข็นอุปกรณ์กอล์ฟ หรือตอนที่ภรรยาเอาขยะไปทิ้ง แต่ AI กลับบอกว่าเธอกำลังเอาพัสดุมาวางไว้หน้าบ้าน ที่หนักกว่านั้นคือ AI ไม่สามารถตัดสินใจได้ว่ารถยนต์ของผู้เขียนเป็นสีน้ำเงินหรือสีเทากันแน่
ที่น่ากังวลกว่าความผิดพลาดเล็ก ๆ น้อย ๆ คือการที่ AI มองไม่เห็นวัตถุอันตราย อย่างกรณีที่ The Verge รายงานว่า Gemini ไม่สามารถระบุได้ว่ามีคนถือปืนลูกซองเดินผ่านกล้อง โดยบอกว่าเป็น “อุปกรณ์ทำสวน” และไม่ยอมระบุว่ามี “มีด” อยู่ในสรุปเหตุการณ์ด้วย ซึ่งสำหรับกล้องวงจรปิดเพื่อความปลอดภัยแล้ว การมองข้ามวัตถุอย่างปืนหรือมีดถือเป็นเรื่องที่ยอมรับได้ยาก
นอกจากนี้ ฟีเจอร์ “Ask Home” ก็ทำงานค่อนข้างช้า ต้องรอประมาณ 15-25 วินาทีถึงจะตอบคำถามได้ ส่วน “Home Brief” ก็ดูจะขยันเกินไปหน่อย ชอบใส่รายละเอียดที่ไม่จำเป็นเข้ามาในสรุป เช่น “Ben นั่งอยู่บนโซฟา” ซึ่งไม่ได้มีประโยชน์อะไรเลย
อย่างไรก็ตาม ฟีเจอร์ทั้งหมดนี้ยังอยู่ในช่วงทดลอง (Early Access) ซึ่งแปลว่ายังมีโอกาสพัฒนาได้อีกไกล ไอเดียตั้งต้นนั้นดีมาก แต่ปัญหาใหญ่คือธรรมชาติของ AI ในปัจจุบันที่ยังฉลาดไม่พอและมั่นใจในเรื่องผิด ๆ อยู่เสมอ อย่างน้อย Google ก็ยังเปิดให้ผู้ใช้เลือกที่จะเปิดหรือปิดฟีเจอร์เหล่านี้ได้เอง
ก็ถือว่าเป็น AI ที่ขยันทำงานดี... แม้จะขยันผิดไปหน่อยก็ตาม
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้