วันพฤหัสบดีที่ 10 เมษายน พ.ศ. 2568

นักวิจัยศึกษาภัยคุกคาม AI ในการพัฒนาซอฟต์แวร์

coding-man
ภาพจาก UTSA Today โดย Ari Castañeda

นักวิจัยนำโดย Joe Spracklen นักศึกษาปริญญาเอกสาขาวิทยาการคอมพิวเตอร์จาก University of Texas at San Antonio ได้วิเคราะห์ความเสี่ยงด้านความปลอดภัยที่เกี่ยวข้องกับ package hallucinations ซึ่งเป็นปรากฏการณ์ที่โมเดลภาษาขนาดใหญ่ (Large Language Model) หรือ LLM สร้างโค้ดที่เชื่อมโยงไปยังไลบรารีซอฟต์แวร์ของบุคคลที่สามที่ไม่มีอยู่จริง 

สิ่งนี้จะทำให้แฮ็กเกอร์สามารถสร้าง package ใหม่ที่มีชื่อเดียวกับ package ที่ hallucinate และแทรกโค้ดที่เป็นอันตรายได้ นักวิจัยพบว่า LLM แบบโอเพนซอร์สมีแนวโน้มที่จะสร้าง package hallucinations มากกว่าโมเดล GPT ถึงสี่เท่า และ JavaScript มีแนวโน้มที่จะเกิด hallucinations มากกว่า Python

อ่านข่าวเต็มได้ที่: UTSA Today โดย Ari Castañeda


ไม่มีความคิดเห็น:

แสดงความคิดเห็น