Copilot อัปเกรดใหม่ จำเก่ง ลืมเป็น แต่เรื่องส่วนตัวจะปลอดภัยไหม?

Microsoft เปิดตัวฟีเจอร์ใหม่ให้ Copilot สามารถจดจำหรือลืมข้อมูลส่วนตัวตามคำสั่งของผู้ใช้ได้แล้ว เพื่อให้คำตอบฉลาดและตรงใจยิ่งขึ้น แต่ก็มาพร้อมคำถามใหญ่เรื่องความเป็นส่วนตัวและความปลอดภัยของข้อมูล
Microsoft ปล่อยของใหม่ให้ Copilot ฉลาดขึ้นไปอีกขั้น โดย Mustafa Suleyman ซีอีโอฝั่ง AI ของบริษัท ได้ประกาศว่าตอนนี้ผู้ใช้สามารถสั่งให้ Copilot จดจำหรือลืมรายละเอียดส่วนตัวได้แล้ว เพื่อให้การตอบสนองในอนาคตตรงกับความต้องการของเรามากขึ้น
ฟีเจอร์นี้ทำงานง่าย ๆ แค่ใช้คำสั่ง “Remember” หรือ “Forget” ตัวอย่างเช่น คุณสามารถบอกให้ Copilot จำว่าคุณเป็น Vegetarian เพื่อที่ครั้งต่อไปเวลามันแนะนำร้านอาหาร จะได้เลือกตัวเลือกที่ใช่ให้ หรือจะให้ช่วยจำวันเกิดแฟนใหม่ก็ยังได้ แต่ถ้าความสัมพันธ์ไม่เวิร์ค ก็แค่สั่งให้มัน “Forget” ชื่อนั้นไปซะก็สิ้นเรื่อง โดยเราสามารถเข้าไปดูและจัดการความทรงจำทั้งหมดที่ AI เก็บไว้ได้ที่ Settings > User memory ทั้งบน Desktop และ Mobile
ที่น่าสนใจคือ เทรนด์การสร้าง AI ให้มีความจำไม่ใช่เรื่องใหม่ ก่อนหน้านี้ทั้ง ChatGPT และ Claude ก็มีฟีเจอร์คล้าย ๆ กันออกมาแล้ว เป้าหมายของบริษัทเทคคือการสร้างสมดุลระหว่าง AI ที่จำทุกอย่าง (ซึ่งอาจช้าและน่ากังวลเรื่องความเป็นส่วนตัว) กับ AI ที่ลืมทุกอย่าง (ซึ่งก็ไม่ต่างจาก Google Search) ทางออกที่ดีที่สุดเลยกลายเป็นการโยนภาระมาให้ผู้ใช้เป็นคนควบคุมความทรงจำของ AI ด้วยตัวเอง เพื่อปั้นให้มันกลายเป็นผู้ช่วยส่วนตัวที่รู้ใจจริง ๆ
แน่นอนว่าดาบย่อมมีสองคม ความสามารถในการจำข้อมูลส่วนตัวก็มาพร้อมความเสี่ยง หากเกิดเหตุข้อมูลรั่วไหล (Data Breach) ข้อมูลอ่อนไหวที่เคยแชร์ไว้อาจหลุดไปได้ นอกจากนี้ยังมีประเด็นด้านจิตวิทยาที่สื่อเรียกกันเล่น ๆ ว่า “AI psychosis” ซึ่งเป็นปรากฏการณ์ที่ AI อาจค่อย ๆ เรียนรู้และชี้นำความคิดของผู้ใช้ไปในทางที่ผิดได้ และที่สำคัญคือ ไม่ใช่ผู้ใช้ทุกคนที่จะเชี่ยวชาญพอจะเข้าไปจัดการตั้งค่าความเป็นส่วนตัวเหล่านี้
สุดท้ายแล้ว การให้ AI จดจำข้อมูลส่วนตัวก็เหมือนการมีเพื่อนสนิทดิจิทัลที่รู้ใจ แต่ก็อย่าลืมว่าเพื่อนคนนี้เก็บทุกอย่างไว้ใน Server และเราเองที่เป็นคนอนุญาตให้มันจำ... หรือลืม
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้