ภาพจาก University of Sheffield (U.K.) |
นักวิทยาศาสตร์จาก University of Sheffield ในสหราชอาณาจักร North China University of Technology และอีคอมเมิร์ซยักษ์ใหญ่อย่าง Amazon พบว่าแฮกเกอร์สามารถหลอกเครื่องมือประมวลผลภาษาธรรมชาติ เช่น ChatGPT ของ OpenAI ให้สร้างโค้ดที่เป็นอันตรายเพื่อนำไปใช้ในการโจมตีทางไซเบอร์ได้
นักวิจัยค้นพบและใช้ประโยชน์จากข้อบกพร่องด้านความปลอดภัยในเครื่องมือปัญญาประดิษฐ์ (AI) เชิงพาณิชย์ 6 รายการ ได้แก่ ChatGPT, แพลตฟอร์มการสนทนาอัจฉริยะของจีน Baidu-UNIT, ตัวสร้างภาษา SQL คือ AI2SQL, AIHelperBot และ Text2SQL และเครื่องมือออนไลน์ ToolSKE
พวกเขาพบว่าการถามคำถามเฉพาะบางอย่างให้ AI ทำให้พวกเขาสร้างโค้ดที่เป็นอันตรายซึ่งจะทำให้ข้อมูลที่เป็นความลับในฐานข้อมูลรั่วไหล หรือขัดขวางหรือแม้แต่ทำลายการทำงานของฐานข้อมูล
ทีมงานยังพบว่าตัวแบบภาษา AI นั้นสามารถถูกจู่โจมได้จากโปรแกรมประตูลับแบบง่าย ๆ Xutan Peng จาก Sheffield กล่าวว่าช่องโหว่มีรากฐานมาจากความจริงที่ว่า "ผู้คนจำนวนมากขึ้นเรื่อย ๆ ใช้ [AI เช่น ChatGPT] เป็นเครื่องมือในการเพิ่มประสิทธิภาพการทำงาน แทนที่จะเป็นบอทสนทนา"
อ่านข่าวเต็มได้ที่: University of Sheffield (U.K.)
ไม่มีความคิดเห็น:
แสดงความคิดเห็น