
แค่แต่งกลอนก็หลอก AI ให้สอนทำระเบิดนิวเคลียร์ได้
ใครจะไปคิดว่าสกิลการแต่งกลอนจะกลายเป็นกุญแจผีไขความลับจักรวาล AI ได้ งานวิจัยล่าสุดจาก Icaro Lab ซึ่งเป็นความร่วมมือระหว่างนักวิจัยจาก Sapienza University ในกรุงโรมและ DexAI ได้เปิดเผยเรื่องที่ทำเอาวงการ Tech ต้องเกาหัว เมื่อพวกเขาค้นพบว่าการป้อนคำสั่งหรือ Prompt ในรูปแบบ "บทกวี" สามารถหลอกให้ AI ยอมคายข้อมูลอันตรายออกมาได้ ไม่ว่าจะเป็นวิธีสร้างระเบิดนิวเคลียร์ มัลแวร์ หรือเนื้อหาที่ผิดกฎหมายอื่น ๆ ปกติแล้ว Chatbot จากค่ายดังอย่าง OpenAI, Meta หรือ Anthropic จะมีระบบป้องกันที่เรียกว่า...













