ข้ามไปยังเนื้อหา

Google สับเละ! Malware ที่สร้างโดย AI ยังอ่อนหัด ตรวจจับง่าย ไม่น่ากลัวอย่างที่คิด

เทคโนโลยี
1 ครั้ง
0 ความเห็น
3 นาที
Google สับเละ! Malware ที่สร้างโดย AI ยังอ่อนหัด ตรวจจับง่าย ไม่น่ากลัวอย่างที่คิด
By Suphansa Makpayab
TL;DR

Google ออกโรงเบรกหัวทิ่ม หลังวิเคราะห์ Malware 5 ตัวที่สร้างโดย AI พบว่าคุณภาพต่ำเตี้ยเรี่ยดิน ตรวจจับง่าย และยังไม่เป็นภัยคุกคามในโลกจริง สวนทางกับกระแสที่หลายบริษัทพยายามปั่นกันอย่างหนัก

Google ออกมาเปิดเผยผลการวิเคราะห์ Malware 5 ตัวอย่างล่าสุดที่สร้างขึ้นโดยใช้ Generative AI และผลลัพธ์ที่ได้ก็ทำเอาหลายคนยิ้มมุมปาก เพราะมันยังห่างไกลจากคำว่า “มืออาชีพ” อยู่หลายขุม แสดงให้เห็นว่าการใช้ AI เขียนโค้ดร้าย ๆ ยังตามหลังวิธีดั้งเดิมอยู่มาก และยังไม่ถือเป็นภัยคุกคามที่น่ากังวลในโลกแห่งความเป็นจริง

หนึ่งในตัวอย่างที่น่าสนใจคือ PromptLock ซึ่งเป็นส่วนหนึ่งของงานวิจัยทางวิชาการที่ศึกษาประสิทธิภาพของ Large Language Models (LLM) ในการสร้าง Ransomware แม้ทีมวิจัยจะบอกว่ามันทำได้ แต่ก็ยอมรับว่ามีข้อจำกัดเพียบ เช่น ไม่มีความสามารถในการฝังตัวในระบบ (Persistence) หรือการหลบหลีกที่ซับซ้อน เป็นแค่การสาธิตความเป็นไปได้เท่านั้น แต่ก่อนหน้านี้ บริษัทความปลอดภัย ESET กลับเคยยกย่องว่ามันคือ “AI-powered ransomware ตัวแรก” ซะอย่างนั้น

Malware อีก 4 ตัวที่ Google นำมาวิเคราะห์ก็มีชะตากรรมไม่ต่างกัน ได้แก่:

  • FruitShell

  • PromptFlux

  • PromptSteal

  • QuietVault

ทั้งหมดนี้ถูกตรวจจับได้ง่ายมาก แม้จะใช้โปรแกรมป้องกันแบบพื้นฐานที่อาศัยการเทียบ Signature แบบเดิม ๆ แถมยังใช้วิธีการโจมตีที่เคยเห็นกันมาแล้ว ทำให้ไม่มีผลกระทบในทางปฏิบัติ และไม่จำเป็นต้องพัฒนาระบบป้องกันใหม่มารับมือเลย

เรื่องนี้ทำเอาผู้เชี่ยวชาญออกมาแสดงความเห็นกันเป็นแถว Kevin Beaumont นักวิจัยอิสระถึงกับบอกว่า “ถ้าคุณจ้างนักพัฒนา Malware แล้วได้ผลงานแบบนี้ คุณคงรีบขอเงินคืนแทบไม่ทัน” เพราะมันไม่แสดงให้เห็นถึงภัยคุกคามที่น่าเชื่อถือเลยแม้แต่น้อย ขณะที่ผู้เชี่ยวชาญอีกรายก็เสริมว่า “AI ไม่ได้ทำให้ Malware น่ากลัวขึ้นกว่าเดิม มันแค่ช่วยให้ผู้ไม่หวังดีทำงานของพวกเขาง่ายขึ้นเท่านั้น ยังไม่มีอะไรใหม่”

ข้อมูลจาก Google ครั้งนี้สวนทางกับเรื่องเล่าที่ถูกปั่นกระแสโดยบริษัท AI หลายแห่ง ที่มักจะโหมประโคมว่า Malware จาก AI นั้นน่ากลัวและแพร่หลาย อย่าง Anthropic ที่เคยรายงานว่ามีผู้ใช้ Claude LLM ของตนไปพัฒนา Ransomware ขั้นสูง หรือ OpenAI ที่พบว่ามีผู้ใช้ ChatGPT ไปพัฒนาโค้ดเพื่อหาช่องโหว่ ซึ่งแม้ในรายงานเหล่านั้นจะมีการระบุข้อจำกัดไว้บ้าง แต่ก็มักจะถูกมองข้ามไปท่ามกลางความตื่นตูม

อย่างไรก็ตาม ในรายงานของ Google ก็มีเรื่องน่าสนใจอยู่หนึ่งอย่าง คือมีผู้ไม่หวังดีสามารถหลบเลี่ยงระบบป้องกันของ Gemini AI ได้สำเร็จ โดยแกล้งทำตัวเป็น White-hat Hacker (แฮกเกอร์สายขาว) ที่กำลังทำวิจัยเพื่อแข่งเกม Capture-the-flag ซึ่ง Google ก็ได้นำช่องโหว่นี้ไปปรับปรุงระบบให้รัดกุมยิ่งขึ้นแล้ว

สรุปแล้ว Malware ที่สร้างโดย AI ในปัจจุบันยังอยู่ในขั้นทดลองและผลงานก็ไม่น่าประทับใจนัก ภัยคุกคามที่แท้จริงยังคงมาจากกลยุทธ์แบบเก่า ๆ ที่เราคุ้นเคยกันดี งานนี้คงต้องบอกว่า Skynet เวอร์ชัน Malware ยังคงต้องใช้เวลาพัฒนาอีกสักพักใหญ่ ๆ เลยทีเดียว

ความเห็น (0)

เข้าสู่ระบบเพื่อแสดงความเห็น

เข้าสู่ระบบ

ยังไม่มีความเห็น

เป็นคนแรกที่แสดงความเห็นในบทความนี้