![]() |
| ภาพจาก UC Santa Cruz News โดย Emily Cerf |
นักวิจัยจาก University of California, Santa Cruz ได้พัฒนาวิธีการโจมตีที่เรียกว่า command hijacking against embodied AI (CHAI) เพื่อแสดงให้เห็นว่าโมเดลภาษา-การมองเห็นขนาดใหญ่ (Large Visual-Language Models) สามารถถูกปั่นหัวเพื่อเข้าควบคุมระบบการตัดสินใจของ AI ได้อย่างไร
CHAI ใช้ Generative AI ในการปรับแต่งข้อความบนป้ายถนนหรือวัตถุอื่นๆ เพื่อเพิ่มโอกาสที่ AI (Embodied AI) จะปฏิบัติตามคำสั่งที่ระบุในข้อความนั้น ระบบจะปรับแต่งลักษณะปรากฏของข้อความ ทั้งในด้านตำแหน่ง สี และขนาด เพื่อให้สอดคล้องกับสภาพแวดล้อมจริงจนดูแนบเนียน
จากการทดสอบพบว่าการโจมตีแบบ CHAI มีอัตราความสำเร็จ (Attack Success Rates) ในระดับที่น่าตกใจ ดังนี้ 95.5% สำหรับโดรนที่ทำหน้าที่ติดตามวัตถุทางอากาศ 81.8% สำหรับยานยนต์ไร้คนขับ (Self-driving vehicles) และ 68.1% สำหรับโดรนในสถานการณ์การลงจอดฉุกเฉิน
อ่านข่าวเต็มได้ที่: UC Santa Cruz News โดย Emily Cerf

ไม่มีความคิดเห็น:
แสดงความคิดเห็น