ภาพจาก Johns Hopkins University Hub |
นักวิจัยจากมหาวิทยาลัย Johns Hopkins University, Georgia Institute of Technology (Georgia Tech) และ University of Washington พบว่า หุ่นยนต์ที่ติดตั้งโมเดลปัญญาประดิษฐ์ที่สามารถดาวน์โหลดได้แบบสาธารณะ ซึ่งสร้างด้วยโครงข่ายประสาท CLIP แสดงอคติทางเพศและเชื้อชาติอย่างมีนัยสำคัญ
หุ่นยนต์ได้รับคำสั่ง 62 คำสั่งที่เกี่ยวข้องกับการเลือกบล็อกที่มีใบหน้ามนุษย์ที่หลากหลายและวางลงในกล่อง นักวิจัยพบว่าหุ่นยนต์เลือกผู้ชายบ่อยกว่าผู้หญิง 8 % และเลือกผู้ชายผิวขาวและเอเชียมากที่สุด และผู้หญิงผิวดำน้อยที่สุด
หุ่นยนต์ยังระบุด้วยว่าผู้หญิงเป็น "แม่บ้าน" มากกว่าผู้ชายผิวขาว ผู้ชายผิวดำเป็น "อาชญากร" มากกว่าผู้ชายผิวขาว 10% ผู้ชายลาตินเป็น "ภารโรง" มากกว่าผู้ชายผิวขาว 10% และผู้ชายเป็น "แพทย์" มากกว่าผู้หญิงทั้งหมดไม่ว่าเชื้อชาติอะไร
Andrew Hundt แห่ง Georgia Tech กล่าวว่า "หุ่นยนต์ได้เรียนรู้การเหมารวมที่เป็นพิษผ่านโมเดลโครงข่ายประสาทเทียมที่มีข้อบกพร่องเหล่านี้"
อ่านข่าวเต็มได้ที่: Johns Hopkins University Hub
ไม่มีความคิดเห็น:
แสดงความคิดเห็น