ภาพจาก Popular Science |
นักวิจัยของ Stanford University และ University of Southern California, Berkeley (UC Berkeley) แสดงให้เห็นถึงความน่าเชื่อถือที่ลดลงอย่างเห็นได้ชัดของ ChatGPT โมเดลภาษาขนาดใหญ่ (large language model ) หรือ LLM ของ OpenAI เมื่อเวลาผ่านไปโดยไม่มีคำอธิบายที่ชัดเจน
นักวิจัยได้ประเมินแนวโน้มของแชทบอทในการเสนอคำตอบด้วยระดับความแม่นยำและคุณภาพที่แตกต่างกันไป รวมถึงความเหมาะสมในการปฏิบัติตามคำสั่งด้วย ในตัวอย่างหนึ่ง นักวิจัยสังเกตว่าความแม่นยำเกือบ 98% ของ GPT-4 ในการระบุจำนวนเฉพาะลดลงเหลือน้อยกว่า 3% ระหว่างเดือนมีนาคมถึงมิถุนายน 2023 ในขณะที่ความแม่นยำของ GPT-3.5 เพิ่มขึ้น ความสามารถในการสร้างโค้ดของทั้ง GPT-3.5 และ GPT-4 แย่ลงในช่วงเวลาเดียวกันนั้น
Matei Zaharia จาก UC Berkeley แนะนำว่าการลดลงอาจสะท้อนถึงขีดจำกัดจากการเรียนรู้แบบเสริมแรง (reinforcement learning) จากข้อมูลตอบสนองของมนุษย์ หรืออาจเป็นบั๊กในระบบ
อ่านข่าวเต็มได้ที่: Popular Science
ไม่มีความคิดเห็น:
แสดงความคิดเห็น