วิเคราะห์: Anthropic และ OpenAI เปิดเผยช่องโหว่ด้านความปลอดภัยอย่างต่อเนื่อง ความปลอดภัยของโมเดล AI กำลังได้รับความสนใจ
Odaily รายงานว่า Anthropic และ OpenAI เกิดเหตุการณ์ด้านความปลอดภัยอย่างต่อเนื่อง ซึ่งกระตุ้นให้ตลาดหันมาให้ความสนใจกับความปลอดภัยของตัวโมเดล AI เอง ขณะนี้ Anthropic กำลังสอบสวนกรณีที่โมเดล Claude Mythos ของตนอาจถูกผู้ใช้เข้าใช้งานโดยไม่ได้รับอนุญาต เกือบจะในเวลาเดียวกัน OpenAI ก็ถูกเปิดเผยว่าในแอปพลิเคชัน Codex ได้เปิดเผยโมเดลที่ยังไม่ได้เปิดตัวหลายรุ่นโดยไม่ตั้งใจ
การวิเคราะห์ชี้ให้เห็นว่า เหตุการณ์ดังกล่าวตอกย้ำว่า แม้แต่ผู้ให้บริการโมเดล AI ที่เน้นความสามารถด้านความปลอดภัยทางไซเบอร์ ยังคงเผชิญกับความท้าทายด้านความปลอดภัยที่สำคัญ ในขณะที่ AI ถูกนำมาใช้ป้องกันการโจมตีทางไซเบอร์มากขึ้น ปัญหาความปลอดภัยของแพลตฟอร์มและการควบคุมการเข้าถึงก็กลายเป็นประเด็นความเสี่ยงที่สำคัญเช่นกัน
มุมมองในอุตสาหกรรมชี้ให้เห็นว่า เหตุการณ์ช่องโหว่เหล่านี้ได้ตอกย้ำการตรวจสอบความสามารถในการกำกับดูแลความปลอดภัยขององค์กร AI และยังสะท้อนให้เห็นว่าในระหว่างการพัฒนาเทคโนโลยี AI อย่างรวดเร็ว ระบบความปลอดภัยยังคงต้องได้รับการปรับปรุงให้สมบูรณ์แบบ (The Information)
