วันพฤหัสบดีที่ 20 มิถุนายน พ.ศ. 2567

ตัวแบบ AI มีความเห็นต่างกันในประเด็นที่เป็นข้อถกเถียง

robot-blinders
ภาพจาก TechCrunch โดย Kyle Wiggers

นักวิจัยจาก Carnegie Mellon University, University of Amsterdam ประเทศเนเธอร์แลนด์ และ Hugging Face ซึ่งเป็นสตาร์ทอัพด้าน AI ได้ค้นพบว่า ตัวแบบ AI เชิงสร้างสรรค์ (Generative AI) ให้คำตอบที่ไม่สอดคล้องกันในประเด็นที่มีความคิดเห็นแตกต่างกัน เช่น สิทธิของกลุ่ม LGBTQ+ สวัสดิการสังคม และการอุ้มบุญ 

พวกเขาศึกษาประเด็นยร่โดยใช้ตัวแบบ AI ห้าตัว  ได้แก่ Mistral 7B ของ Mistral, Command-R ของ Cohere, Qwen ของ Alibaba, Gemma ของ Google และ Llama 3 ของ Meta พวกเขาสรุปว่า ความไม่สอดคล้องกันดังกล่าวอาจเกิดจากอคติที่ฝังอยู่ในข้อมูลการฝึกอบรม 

Giada Pistilli ผู้ร่วมเขียนงานวิจัยกล่าวว่า "งานวิจัยของเราแสดงให้เห็นถึงความแตกต่างอย่างมีนัยสำคัญในค่านิยมที่ถ่ายทอดผ่านการตอบสนองของตัวแบบ ซึ่งขึ้นอยู่กับวัฒนธรรมและภาษา"

อ่านข่าวเต็มได้ที่: TechCrunch โดย Kyle Wiggers

ไม่มีความคิดเห็น:

แสดงความคิดเห็น