![]() |
ภาพจาก UTSA Today โดย Ari Castañeda |
นักวิจัยนำโดย Joe Spracklen นักศึกษาปริญญาเอกสาขาวิทยาการคอมพิวเตอร์จาก University of Texas at San Antonio ได้วิเคราะห์ความเสี่ยงด้านความปลอดภัยที่เกี่ยวข้องกับ package hallucinations ซึ่งเป็นปรากฏการณ์ที่โมเดลภาษาขนาดใหญ่ (Large Language Model) หรือ LLM สร้างโค้ดที่เชื่อมโยงไปยังไลบรารีซอฟต์แวร์ของบุคคลที่สามที่ไม่มีอยู่จริง
สิ่งนี้จะทำให้แฮ็กเกอร์สามารถสร้าง package ใหม่ที่มีชื่อเดียวกับ package ที่ hallucinate และแทรกโค้ดที่เป็นอันตรายได้ นักวิจัยพบว่า LLM แบบโอเพนซอร์สมีแนวโน้มที่จะสร้าง package hallucinations มากกว่าโมเดล GPT ถึงสี่เท่า และ JavaScript มีแนวโน้มที่จะเกิด hallucinations มากกว่า Python
อ่านข่าวเต็มได้ที่: UTSA Today โดย Ari Castañeda
ไม่มีความคิดเห็น:
แสดงความคิดเห็น