ข้ามไปยังเนื้อหา

เมื่อ AI สร้างภาพอนาจารเด็กพุ่งกระฉูด สหรัฐฯ เลยต้องใช้ AI มาจับ AI ซะเอง!

เทคโนโลยี
2 ครั้ง
0 ความเห็น
1 นาที
เมื่อ AI สร้างภาพอนาจารเด็กพุ่งกระฉูด สหรัฐฯ เลยต้องใช้ AI มาจับ AI ซะเอง!
Photo by Solen Feyissa on Pexels
By Suphansa Makpayab
TL;DR

เมื่อ AI ถูกใช้สร้างภาพอนาจารเด็ก (CSAM) พุ่งพรวด หน่วยงานสืบสวนอาชญากรรมไซเบอร์ของสหรัฐฯ จึงหันไปพึ่ง AI จาก Hive AI เพื่อแยกแยะภาพที่สร้างจาก AI ออกจากภาพเหยื่อจริง หวังช่วยให้เจ้าหน้าที่โฟกัสไปที่เคสที่มีเหยื่อตัวเป็นๆ ได้อย่างมีประสิทธิภาพมากขึ้น

ในยุคที่ Generative AI กำลังฮิตติดลมบน ใครจะคิดว่ามันจะถูกนำไปใช้สร้างภาพอนาจารเด็ก (Child Sexual Abuse Material หรือ CSAM) จนพุ่งกระฉูดขนาดนี้ และเมื่อสถานการณ์เป็นแบบนี้ หน่วยงานสืบสวนการแสวงหาประโยชน์จากเด็กชั้นนำของสหรัฐฯ อย่าง Department of Homeland Security’s Cyber Crimes Center ก็เลยต้องหันมาพึ่ง AI เพื่อแยกแยะภาพที่สร้างจาก AI ออกจากภาพที่มีเหยื่อจริง ๆ ตามเอกสารของรัฐบาลที่เพิ่งเปิดเผยออกมา

งานนี้ Cyber Crimes Center ซึ่งมีหน้าที่สืบสวนคดีการแสวงหาประโยชน์จากเด็กข้ามประเทศ ได้อนุมัติสัญญาจ้างมูลค่า US$150,000 (≈ 5.4 ล้านบาท) ให้กับบริษัท Hive AI ที่ตั้งอยู่ใน San Francisco เพื่อใช้ซอฟต์แวร์ของพวกเขาในการระบุว่าเนื้อหาใดถูกสร้างโดย AI ซึ่ง Kevin Guo ซีอีโอและผู้ร่วมก่อตั้ง Hive ได้ยืนยันว่าเกี่ยวข้องกับการใช้อัลกอริทึมตรวจจับ AI สำหรับ CSAM จริงๆ

เอกสารที่เผยแพร่เมื่อวันที่ 19 กันยายนที่ผ่านมา ระบุว่าเหตุผลที่ต้องพึ่ง AI ก็เพราะข้อมูลจาก National Center for Missing and Exploited Children ชี้ว่าเหตุการณ์ที่เกี่ยวข้องกับ Generative AI ในปี 2024 เพิ่มขึ้นถึง 1,325% เลยทีเดียว! ตัวเลขนี้สะท้อนให้เห็นว่าปริมาณเนื้อหาดิจิทัลที่หมุนเวียนอยู่บนโลกออนไลน์นั้นมหาศาล จนจำเป็นต้องมีเครื่องมืออัตโนมัติมาช่วยจัดการและวิเคราะห์ข้อมูลอย่างมีประสิทธิภาพ

ที่น่าสนใจคือ เครื่องมือของ Hive AI ไม่ได้ถูกฝึกมาเพื่อตรวจจับ CSAM โดยเฉพาะ แต่ Guo บอกว่ามันไม่จำเป็นต้องเป็นแบบนั้น เพราะมันสามารถระบุ 'การรวมกันของพิกเซล' ที่เป็นเอกลักษณ์ของภาพที่สร้างโดย AI ได้ไม่ว่าจะเป็นภาพประเภทไหนก็ตาม ตรงนี้ทำให้เจ้าหน้าที่สามารถจัดลำดับความสำคัญของคดีได้อย่างถูกต้อง และมุ่งเน้นทรัพยากรไปที่คดีที่มีเหยื่อจริง ๆ เพื่อปกป้องเด็กที่เปราะบางได้อย่างเต็มที่

ก่อนหน้านี้ Hive AI ก็เคยขายเทคโนโลยี Deepfake-detection ให้กับกองทัพสหรัฐฯ มาแล้ว ซึ่งแสดงให้เห็นถึงความน่าเชื่อถือของเทคโนโลยีพวกเขา และสำหรับ CSAM นั้น Hive ได้ร่วมมือกับ Thorn องค์กรไม่แสวงหาผลกำไรด้านความปลอดภัยของเด็ก พัฒนาเครื่องมือที่ใช้ระบบ “hashing” เพื่อบล็อกเนื้อหา CSAM ที่เป็นที่รู้จักไม่ให้ถูกอัปโหลดขึ้นแพลตฟอร์มต่างๆ

การที่รัฐบาลอนุมัติสัญญานี้กับ Hive โดยไม่มีการประมูลแข่งขัน ก็เพราะผลการศึกษาจาก University of Chicago ในปี 2024 ที่พบว่าเครื่องมือตรวจจับ AI ของ Hive เหนือกว่าคู่แข่งถึง 4 รายในการระบุงานศิลปะที่สร้างโดย AI และยังมีสัญญากับ Pentagon สำหรับการระบุ Deepfake อีกด้วย การทดลองใช้ AI ตัวนี้จะกินเวลา 3 เดือน ซึ่งหวังว่าผลลัพธ์จะออกมาดีจนทำให้เหล่าผู้ร้ายที่ใช้ AI สร้างความเสียหายต้องสะดุ้งกันบ้างล่ะ!

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้