ข้ามไปยังเนื้อหา

Gemini เช็กภาพ AI ได้แล้ว แต่ทำไมยังไว้ใจไม่ได้ 100%

เทคโนโลยี
1 ครั้ง
0 ความเห็น
3 นาที
Gemini เช็กภาพ AI ได้แล้ว แต่ทำไมยังไว้ใจไม่ได้ 100%
Photo by Google DeepMind on Pexels
By Suphansa Makpayab
TL;DR

Google อัปเดต Gemini ให้ตรวจสอบภาพ AI ได้ผ่าน SynthID แต่ยังจำกัดเฉพาะภาพจากเครื่องมือของ Google เอง การทดสอบพบว่าหากไร้ลายน้ำดิจิทัล Chatbot ส่วนใหญ่ยังแยกแยะภาพเนียน ๆ ไม่ออก

เมื่อคุณลองให้ AI ส่องกระจก มันอาจจะจำตัวเองไม่ได้เสมอไป นี่คือความรู้สึกที่เกิดขึ้นเมื่อเราพยายามใช้ AI ช่วยตรวจสอบว่าภาพตรงหน้าคือของจริงหรือภาพที่ถูกสร้างขึ้น (Deepfake) ล่าสุด Google ได้พยายามแก้ปัญหานี้ด้วยการอัปเดตฟีเจอร์ใหม่ใน Gemini App ให้ผู้ใช้งานสามารถอัปโหลดรูปภาพแล้วถามตรง ๆ ได้เลยว่า "นี่คือของจริงหรือไม่" โดยระบบจะทำการตรวจสอบหา SynthID (ลายน้ำดิจิทัลที่ฝังอยู่ในภาพ) เพื่อยืนยันว่าภาพนั้นถูกสร้างโดยเครื่องมือ AI ของ Google หรือไม่

ในขอบเขตที่จำกัดนี้ถือว่า Google ทำการบ้านมาดีทีเดียว Gemini ทำงานได้รวดเร็วและแม่นยำมากหากเป็นภาพที่สร้างจากเครื่องมือของ Google เอง แม้กระทั่งการแคปหน้าจอ (Screenshot) ของภาพนั้นมาอีกที ระบบก็ยังตรวจเจอ SynthID ได้ แต่จุดตายคือถ้าคุณเอารูปที่สร้างจากค่ายอื่นไปถาม คุณจะไม่ได้คำตอบที่ฟันธงแบบชัดเจน แต่จะได้เป็นการวิเคราะห์ตามเนื้อผ้า เช่น ดูแสงเงา หรือความสมจริง ซึ่งเป็นการ "เดา" จากสิ่งที่ตาเห็น คล้ายกับที่มนุษย์เราทำกันเองนั่นแหละ

เพื่อให้เห็นภาพชัดขึ้น CNET ได้ทำการทดสอบด้วยการใช้โมเดลใหม่อย่าง Nano Banana Pro สร้างภาพ "แมวบนกระดาน Monopoly" ซึ่งดูเผิน ๆ เหมือนจริงมาก แต่มีจุดผิดสังเกตเล็กน้อย ผลลัพธ์จากการนำไปถาม Chatbot ต่าง ๆ น่าสนใจมาก:

  • Gemini (บนแอปมือถือ): ตอบถูกทันที เพราะตรวจเจอ SynthID

  • Gemini (บนเบราว์เซอร์): ยังไม่มีฟีเจอร์ SynthID เลยตอบแบบกั๊ก ๆ ว่าอาจจะเป็น AI หรือคนทำก็ได้ สรุปคือแยกไม่ออก

  • Gemini 2.5 Flash: เดาว่าเป็นภาพถ่ายจริง เพราะรายละเอียดดูสมจริงเกินไป

  • ChatGPT: ถามสองครั้ง ตอบไม่เหมือนกันสักครั้ง วันหนึ่งบอกของจริง อีกวันบอกของปลอม พร้อมคำอธิบายยาวเหยียดทั้งคู่

  • Claude (Haiku & Sonnet): มองว่าดูเหมือนภาพจริง

ผลการทดสอบนี้ชี้ให้เห็นว่า แม้ Google จะมีเครื่องมือที่ยอดเยี่ยมอย่าง SynthID แต่การพึ่งพา Chatbot ในการจับผิดภาพที่ไม่มีลายน้ำดิจิทัลนั้นแทบจะหวังผลไม่ได้เลย เพราะเมื่อเจอกับโมเดลสร้างภาพรุ่นใหม่ ๆ ที่เนียนกริบ การสังเกตด้วยตาเปล่าหรือให้ AI ช่วยดูจุดบกพร่องเริ่มจะใช้ไม่ได้ผลแล้ว

ทางออกของเรื่องนี้อาจจะอยู่ที่มาตรฐานกลางอย่าง C2PA (Coalition for Content Provenance and Authentication) ที่หลายค่ายกำลังผลักดัน เพื่อให้ AI ทุกตัวสามารถตรวจสอบลายน้ำดิจิทัลข้ามค่ายกันได้ ไม่ใช่ต้องมานั่งเดาสุ่มแบบนี้ เพราะในโลกที่ Deepfake พัฒนาไปไวกว่าจรวด เราควรจะมีเครื่องมือตรวจสอบที่กดปุ่มเดียวรู้เรื่อง ไม่ใช่ต้องมานั่งลุ้นว่า AI จะอารมณ์ดีตอบถูกหรือเปล่า

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้