วันพุธที่ 1 พฤศจิกายน พ.ศ. 2566

ความคุกคามด้านความมั่นคงโดย AI ถูกเปิดเผยโดยนักวิจัย

using-laptop
ภาพจาก University of Sheffield (U.K.)

นักวิทยาศาสตร์จาก University of Sheffield ในสหราชอาณาจักร North China University of Technology และอีคอมเมิร์ซยักษ์ใหญ่อย่าง  Amazon พบว่าแฮกเกอร์สามารถหลอกเครื่องมือประมวลผลภาษาธรรมชาติ เช่น ChatGPT ของ OpenAI ให้สร้างโค้ดที่เป็นอันตรายเพื่อนำไปใช้ในการโจมตีทางไซเบอร์ได้

นักวิจัยค้นพบและใช้ประโยชน์จากข้อบกพร่องด้านความปลอดภัยในเครื่องมือปัญญาประดิษฐ์ (AI) เชิงพาณิชย์ 6 รายการ ได้แก่ ChatGPT, แพลตฟอร์มการสนทนาอัจฉริยะของจีน Baidu-UNIT, ตัวสร้างภาษา SQL คือ AI2SQL, AIHelperBot และ Text2SQL และเครื่องมือออนไลน์ ToolSKE

พวกเขาพบว่าการถามคำถามเฉพาะบางอย่างให้ AI ทำให้พวกเขาสร้างโค้ดที่เป็นอันตรายซึ่งจะทำให้ข้อมูลที่เป็นความลับในฐานข้อมูลรั่วไหล หรือขัดขวางหรือแม้แต่ทำลายการทำงานของฐานข้อมูล

ทีมงานยังพบว่าตัวแบบภาษา AI นั้นสามารถถูกจู่โจมได้จากโปรแกรมประตูลับแบบง่าย ๆ Xutan Peng จาก Sheffield กล่าวว่าช่องโหว่มีรากฐานมาจากความจริงที่ว่า "ผู้คนจำนวนมากขึ้นเรื่อย ๆ ใช้ [AI เช่น ChatGPT] เป็นเครื่องมือในการเพิ่มประสิทธิภาพการทำงาน แทนที่จะเป็นบอทสนทนา"

อ่านข่าวเต็มได้ที่: University of Sheffield (U.K.)

ไม่มีความคิดเห็น:

แสดงความคิดเห็น