Gemini เช็กภาพ AI ได้แล้ว แต่ทำไมยังไว้ใจไม่ได้ 100%

Google อัปเดต Gemini ให้ตรวจสอบภาพ AI ได้ผ่าน SynthID แต่ยังจำกัดเฉพาะภาพจากเครื่องมือของ Google เอง การทดสอบพบว่าหากไร้ลายน้ำดิจิทัล Chatbot ส่วนใหญ่ยังแยกแยะภาพเนียน ๆ ไม่ออก
เมื่อคุณลองให้ AI ส่องกระจก มันอาจจะจำตัวเองไม่ได้เสมอไป นี่คือความรู้สึกที่เกิดขึ้นเมื่อเราพยายามใช้ AI ช่วยตรวจสอบว่าภาพตรงหน้าคือของจริงหรือภาพที่ถูกสร้างขึ้น (Deepfake) ล่าสุด Google ได้พยายามแก้ปัญหานี้ด้วยการอัปเดตฟีเจอร์ใหม่ใน Gemini App ให้ผู้ใช้งานสามารถอัปโหลดรูปภาพแล้วถามตรง ๆ ได้เลยว่า "นี่คือของจริงหรือไม่" โดยระบบจะทำการตรวจสอบหา SynthID (ลายน้ำดิจิทัลที่ฝังอยู่ในภาพ) เพื่อยืนยันว่าภาพนั้นถูกสร้างโดยเครื่องมือ AI ของ Google หรือไม่
ในขอบเขตที่จำกัดนี้ถือว่า Google ทำการบ้านมาดีทีเดียว Gemini ทำงานได้รวดเร็วและแม่นยำมากหากเป็นภาพที่สร้างจากเครื่องมือของ Google เอง แม้กระทั่งการแคปหน้าจอ (Screenshot) ของภาพนั้นมาอีกที ระบบก็ยังตรวจเจอ SynthID ได้ แต่จุดตายคือถ้าคุณเอารูปที่สร้างจากค่ายอื่นไปถาม คุณจะไม่ได้คำตอบที่ฟันธงแบบชัดเจน แต่จะได้เป็นการวิเคราะห์ตามเนื้อผ้า เช่น ดูแสงเงา หรือความสมจริง ซึ่งเป็นการ "เดา" จากสิ่งที่ตาเห็น คล้ายกับที่มนุษย์เราทำกันเองนั่นแหละ
เพื่อให้เห็นภาพชัดขึ้น CNET ได้ทำการทดสอบด้วยการใช้โมเดลใหม่อย่าง Nano Banana Pro สร้างภาพ "แมวบนกระดาน Monopoly" ซึ่งดูเผิน ๆ เหมือนจริงมาก แต่มีจุดผิดสังเกตเล็กน้อย ผลลัพธ์จากการนำไปถาม Chatbot ต่าง ๆ น่าสนใจมาก:
Gemini (บนแอปมือถือ): ตอบถูกทันที เพราะตรวจเจอ SynthID
Gemini (บนเบราว์เซอร์): ยังไม่มีฟีเจอร์ SynthID เลยตอบแบบกั๊ก ๆ ว่าอาจจะเป็น AI หรือคนทำก็ได้ สรุปคือแยกไม่ออก
Gemini 2.5 Flash: เดาว่าเป็นภาพถ่ายจริง เพราะรายละเอียดดูสมจริงเกินไป
ChatGPT: ถามสองครั้ง ตอบไม่เหมือนกันสักครั้ง วันหนึ่งบอกของจริง อีกวันบอกของปลอม พร้อมคำอธิบายยาวเหยียดทั้งคู่
Claude (Haiku & Sonnet): มองว่าดูเหมือนภาพจริง
ผลการทดสอบนี้ชี้ให้เห็นว่า แม้ Google จะมีเครื่องมือที่ยอดเยี่ยมอย่าง SynthID แต่การพึ่งพา Chatbot ในการจับผิดภาพที่ไม่มีลายน้ำดิจิทัลนั้นแทบจะหวังผลไม่ได้เลย เพราะเมื่อเจอกับโมเดลสร้างภาพรุ่นใหม่ ๆ ที่เนียนกริบ การสังเกตด้วยตาเปล่าหรือให้ AI ช่วยดูจุดบกพร่องเริ่มจะใช้ไม่ได้ผลแล้ว
ทางออกของเรื่องนี้อาจจะอยู่ที่มาตรฐานกลางอย่าง C2PA (Coalition for Content Provenance and Authentication) ที่หลายค่ายกำลังผลักดัน เพื่อให้ AI ทุกตัวสามารถตรวจสอบลายน้ำดิจิทัลข้ามค่ายกันได้ ไม่ใช่ต้องมานั่งเดาสุ่มแบบนี้ เพราะในโลกที่ Deepfake พัฒนาไปไวกว่าจรวด เราควรจะมีเครื่องมือตรวจสอบที่กดปุ่มเดียวรู้เรื่อง ไม่ใช่ต้องมานั่งลุ้นว่า AI จะอารมณ์ดีตอบถูกหรือเปล่า
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้