ภาพจาก TechCrunch โดย Kyle Wiggers |
นักวิจัยจาก Carnegie Mellon University, University of Amsterdam ประเทศเนเธอร์แลนด์ และ Hugging Face ซึ่งเป็นสตาร์ทอัพด้าน AI ได้ค้นพบว่า ตัวแบบ AI เชิงสร้างสรรค์ (Generative AI) ให้คำตอบที่ไม่สอดคล้องกันในประเด็นที่มีความคิดเห็นแตกต่างกัน เช่น สิทธิของกลุ่ม LGBTQ+ สวัสดิการสังคม และการอุ้มบุญ
พวกเขาศึกษาประเด็นยร่โดยใช้ตัวแบบ AI ห้าตัว ได้แก่ Mistral 7B ของ Mistral, Command-R ของ Cohere, Qwen ของ Alibaba, Gemma ของ Google และ Llama 3 ของ Meta พวกเขาสรุปว่า ความไม่สอดคล้องกันดังกล่าวอาจเกิดจากอคติที่ฝังอยู่ในข้อมูลการฝึกอบรม
Giada Pistilli ผู้ร่วมเขียนงานวิจัยกล่าวว่า "งานวิจัยของเราแสดงให้เห็นถึงความแตกต่างอย่างมีนัยสำคัญในค่านิยมที่ถ่ายทอดผ่านการตอบสนองของตัวแบบ ซึ่งขึ้นอยู่กับวัฒนธรรมและภาษา"
อ่านข่าวเต็มได้ที่: TechCrunch โดย Kyle Wiggers
ไม่มีความคิดเห็น:
แสดงความคิดเห็น