วันเสาร์ที่ 31 มกราคม พ.ศ. 2569

ข้อความที่ทำให้เข้าใจผิดในโลกจริง สามารถเข้าควบคุมหุ่นยนต์ที่ใช้ปัญญาประดิษฐ์ได้

misleading-text-fool-AI
ภาพจาก UC Santa Cruz News โดย Emily Cerf

นักวิจัยจาก University of California, Santa Cruz ได้พัฒนาวิธีการโจมตีที่เรียกว่า command hijacking against embodied AI (CHAI) เพื่อแสดงให้เห็นว่าโมเดลภาษา-การมองเห็นขนาดใหญ่ (Large Visual-Language Models) สามารถถูกปั่นหัวเพื่อเข้าควบคุมระบบการตัดสินใจของ AI ได้อย่างไร

CHAI ใช้ Generative AI ในการปรับแต่งข้อความบนป้ายถนนหรือวัตถุอื่นๆ เพื่อเพิ่มโอกาสที่ AI (Embodied AI) จะปฏิบัติตามคำสั่งที่ระบุในข้อความนั้น ระบบจะปรับแต่งลักษณะปรากฏของข้อความ ทั้งในด้านตำแหน่ง สี และขนาด เพื่อให้สอดคล้องกับสภาพแวดล้อมจริงจนดูแนบเนียน

จากการทดสอบพบว่าการโจมตีแบบ CHAI มีอัตราความสำเร็จ (Attack Success Rates) ในระดับที่น่าตกใจ ดังนี้ 95.5% สำหรับโดรนที่ทำหน้าที่ติดตามวัตถุทางอากาศ 81.8% สำหรับยานยนต์ไร้คนขับ (Self-driving vehicles) และ 68.1% สำหรับโดรนในสถานการณ์การลงจอดฉุกเฉิน

อ่านข่าวเต็มได้ที่: UC Santa Cruz News โดย Emily Cerf

ไม่มีความคิดเห็น:

แสดงความคิดเห็น