Grok AI งานเข้า! ถูกใช้ลบชุดศาสนา ฮิญาบ-ส่าหรี เปลี่ยนเป็นชุดวาบหวิว

Grok AI ของ Elon Musk กำลังถูกวิจารณ์หนัก หลังผู้ใช้แห่สั่งให้ AI ลบชุดทางศาสนาอย่างฮิญาบและส่าหรี เปลี่ยนเป็นชุดโป๊เปลือยเพื่อคุกคามผู้หญิงมุสลิมและผิวสี พบยอดการสร้างรูปอันตรายพุ่งสูงนับพันรูปต่อชั่วโมง ขณะที่ทาง xAI ตอบโต้สื่อเพียงสั้นๆ ว่าสื่อเก่าโกหก
เรื่องนี้กำลังเป็นประเด็นร้อนแรงในโลกออนไลน์ เมื่อ Grok AI ของ xAI ไม่ได้ถูกใช้แค่เพื่อ "ถอดเสื้อผ้า" (Undress) รูปผู้หญิงทั่วไปให้เหลือแค่บิกินีหรือชุดชั้นในเท่านั้น แต่ล่าสุดจากการตรวจสอบของ WIRED พบว่ามีการใช้คำสั่ง (Prompt) ให้ AI ไปยุ่งกับชุดประจำชาติและชุดทางศาสนาที่มิดชิด ทั้งฮิญาบ (Hijab), ส่าหรี (Sari) หรือแม้แต่ชุดนางชี โดยเปลี่ยนให้กลายเป็นชุดวาบหวิวหรือชุดว่ายน้ำแทน ซึ่งถือเป็นการคุกคามที่ละเอียดอ่อนและรุนแรงกว่าเดิม
จากการสุ่มตรวจรูปที่ Grok สร้างขึ้นมาระหว่างวันที่ 6-9 มกราคม จำนวน 500 รูป พบว่าประมาณ 5% คือรูปผู้หญิงที่ถูก AI สั่งให้ "ถอด" หรือ "ใส่" ชุดทางศาสนาใหม่ โดยเป้าหมายหลักคือส่าหรีของอินเดียและชุดมุสลิม บางเคสหนักถึงขั้นมีบัญชีผู้ใช้ X (Twitter เดิม) ที่มีคนติดตามหลักแสน เอารูปหญิงสาวสวมฮิญาบไปสั่ง Grok ว่า "ถอดฮิญาบออก แล้วจับใส่ชุดปาร์ตี้ปีใหม่แบบวับๆ แวมๆ ซะ" ซึ่ง AI ก็จัดให้ตามคำขอ เปลี่ยนภาพเป็นสาวผมลอนในชุดซีทรู จนกลายเป็นเครื่องมือคุกคามทางเพศและศาสนา (Islamophobia) ไปในตัว
ความรุนแรงของเรื่องนี้ไม่ใช่เล่นๆ ข้อมูลจาก Genevieve Oh นักวิจัยโซเชียลมีเดียระบุว่า ในช่วงพีคๆ Grok เคยสร้างรูปภาพที่เป็นอันตรายถึง 7,700 รูปต่อชั่วโมง! ก่อนที่ทาง X จะเริ่มจำกัดการใช้งานฟีเจอร์นี้ในช่อง Reply สำหรับคนที่ไม่จ่ายเงิน แต่ถึงอย่างนั้น ในช่องแชทส่วนตัวหรือแอป Grok แยก ก็ยังสามารถเจนรูปแนวนี้ออกมาได้อยู่ดี โดยทาง CAIR หรือสภาความสัมพันธ์อเมริกัน-อิสลาม ก็ออกมาเรียกร้องให้ Elon Musk จัดการเรื่องนี้ทันที
ในมุมของผู้เชี่ยวชาญมองว่า ผู้หญิงผิวสี (Women of Color) มักตกเป็นเป้าของการถูกบิดเบือนภาพลักษณ์มาตลอด และ AI ตัวนี้ก็ยิ่งทำให้เรื่องแย่ลง เพราะมันไม่ใช่แค่เรื่องเพศ แต่เป็นการใช้อำนาจควบคุมอัตลักษณ์ของผู้หญิง ส่วนทางด้าน Elon Musk เจ้าของแพลตฟอร์ม ดูเหมือนจะไม่ได้เดือดเนื้อร้อนใจเท่าไรนัก ยังคงรีโพสต์วิดีโอ AI และเล่นมุกเกี่ยวกับ Grok อยู่เรื่อยๆ แม้ทาง xAI จะตอบกลับสื่อที่สอบถามเรื่องนี้ด้วยประโยคอัตโนมัติว่า "Legacy Media Lies" (สื่อเก่าตอแหล) ก็ตาม
ที่น่ากังวลคือ แม้จะมีกฎหมายอย่าง Take It Down Act ที่จะเริ่มบังคับใช้ในสหรัฐฯ เร็วๆ นี้ เพื่อจัดการกับภาพโป๊เปลือย Deepfake แต่กรณีการ "ถอดฮิญาบ" หรือเปลี่ยนชุดศาสนา อาจจะยังเป็นพื้นที่สีเทาที่กฎหมายเอื้อมไม่ถึง เพราะบางรูปไม่ได้โป๊จนผิดกฎหมายชัดเจน แต่เป็นการเหยียดหยามทางวัฒนธรรม ทำให้เหยื่อเอาผิดยากขึ้นไปอีก เรียกว่าเทคโนโลยีไปไกลจนจริยธรรม (และกฎหมาย) วิ่งตามจนหอบแฮกแล้วจริงๆ
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้