นักพัฒนาโวย! Claude Opus 4.7 เซนเซอร์จัด บล็อกมั่วแม้กระทั่งโฆษณา Shrek

Anthropic ปล่อยอัปเดต Claude Opus 4.7 ที่มาพร้อมระบบป้องกันความปลอดภัยขั้นสุดยอด แต่ดันทำงานเกินเบอร์ บล็อกการใช้งานทั่วไปของนักพัฒนาจนพังพินาศ แม้แต่งานวิจัยชีววิทยาหรืออ่านไฟล์ PDF โฆษณาของเล่นก็ยังโดนแบน
ดูเหมือนความพยายามที่จะทำให้ AI ปลอดภัยสุดขีดกำลังจะกลายเป็นฝันร้ายของคนทำงานเสียแล้ว เมื่อ Anthropic ปล่อยอัปเดตโมเดล Claude Opus 4.7 ที่มาพร้อมกับระบบคัดกรองการใช้งาน (Acceptable Use Classifier - AUP) สุดเข้มงวด เพื่อเตรียมปูทางไปสู่การเปิดตัว Mythos โมเดลลับที่ลือกันว่าเก่งกาจด้านการเจาะระบบจนบริษัทไม่กล้าปล่อยให้คนทั่วไปใช้
สาเหตุที่ Anthropic ต้องตื่นตัวขนาดนี้ ส่วนหนึ่งอาจเป็นเพราะผลงานก่อนหน้าที่ Claude Opus 4.6 เคยโชว์เทพเขียนโค้ดเจาะช่องโหว่ Chrome สำเร็จ รวมถึงการ ช่วยหาช่องโหว่ใน Firefox ได้ถึง 22 จุด ทำให้ทีมพัฒนาต้องรีบใส่เบรกเกอร์ป้องกันการใช้งานในทางที่ผิด แต่ปัญหาคือเบรกเกอร์ตัวนี้ดันทำงาน "เกินเบอร์" ไปมาก
สถิติจาก GitHub ของ Claude Code เผยให้เห็นกราฟความไม่พอใจที่พุ่งทะลุเพดาน จากเดิมที่มีคนบ่นเรื่อง AI ปฏิเสธการทำงานแค่เดือนละ 2-3 เคสในช่วงปลายปี 2025 แต่พอเข้าสู่เดือนเมษายน 2026 ตัวเลขกลับพุ่งสูงกว่า 30 รายการ โดยนักพัฒนาต่างประสานเสียงว่า AI ตัวนี้ขี้ระแวงเกินเหตุจนบล็อกแม้กระทั่งงานทั่วไปที่ไม่มีความเสี่ยงใด ๆ
ตัวอย่างความพังพินาศของระบบเซนเซอร์ที่ทำเอานักพัฒนาถึงกับกุมขมับ:
- บล็อกงานวิจัย: งานคำนวณโครงสร้างทางชีววิทยา (Computational Structural Biology) ถูกมองว่าละเมิดนโยบายการใช้งานเสียอย่างนั้น
- จ่ายแพงแต่โดนเท: Golden G Richard III ผู้อำนวยการศูนย์ไซเบอร์จาก LSU จ่ายค่าบริการกว่า US$200 (ประมาณ 6,280 บาท แปลงด้วยเรท 31.40 บาท ณ วันที่ 9 ก.พ.) ต่อเดือน แต่ Claude กลับปฏิเสธที่จะช่วยตรวจทานแบบฝึกหัดเข้ารหัสพื้นฐานสำหรับนักศึกษา
- กลัวแม้กระทั่งเชร็ค: นักพัฒนาคนหนึ่งเจอเออเรอร์รัว ๆ เมื่อสั่งให้ Claude อ่านไฟล์ PDF โฆษณาของเล่น Shrek จากค่าย Hasbro เพียงเพราะในไฟล์มีคำว่า "CHARACTER OR FOR DONKEY UNDERNEATH"
- บัตรเบ่งก็ไร้ผล: แม้แต่นักวิจัยด้านความปลอดภัยที่ได้รับสิทธิ์ยกเว้น (Cyber Use Case Exemption) จาก Anthropic ให้ทะลวงระบบป้องกันได้ ก็ยังโดนบล็อกอยู่ดีเมื่อเรียกใช้งานผ่าน API
หลายฝ่ายตั้งข้อสังเกตว่า ระบบคัดกรอง AUP ของ Anthropic อาจจะใช้แค่วิธีจับคำต้องห้าม (Regex) แบบง่าย ๆ โดยไม่สนใจบริบทแวดล้อม ซึ่งสอดคล้องกับพฤติกรรมความขี้เกียจที่ หัวหน้าทีม AI ของ AMD เพิ่งออกมาสับเละว่า Claude Code ทำงานแย่ลงจนแทบจะใช้ในงานวิศวกรรมไม่ได้แล้ว
งานนี้ Anthropic ยังคงปิดปากเงียบ ไม่ยอมออกมาแสดงความคิดเห็นใด ๆ คงต้องรอดูกันต่อไปว่าบริษัทจะยอมปรับลดความหวาดระแวงของ AI ลง หรือจะปล่อยให้ลูกค้าจ่ายเงินหลักพันเพื่อมานั่งเถียงกับยามเฝ้าประตูที่บล็อกทุกอย่างแม้กระทั่งโฆษณาของเล่นเด็กต่อไป
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้