วันเสาร์ที่ 2 กรกฎาคม พ.ศ. 2565

ช่องโหว่ใน AI ทำให้หุ่นยนต์เหยียดเชื้อชาติและเพศ

robot-pick-human
ภาพจาก Johns Hopkins University Hub

นักวิจัยจากมหาวิทยาลัย Johns Hopkins University,  Georgia Institute of Technology (Georgia Tech) และ University of Washington พบว่า หุ่นยนต์ที่ติดตั้งโมเดลปัญญาประดิษฐ์ที่สามารถดาวน์โหลดได้แบบสาธารณะ ซึ่งสร้างด้วยโครงข่ายประสาท CLIP แสดงอคติทางเพศและเชื้อชาติอย่างมีนัยสำคัญ

หุ่นยนต์ได้รับคำสั่ง 62 คำสั่งที่เกี่ยวข้องกับการเลือกบล็อกที่มีใบหน้ามนุษย์ที่หลากหลายและวางลงในกล่อง นักวิจัยพบว่าหุ่นยนต์เลือกผู้ชายบ่อยกว่าผู้หญิง 8 % และเลือกผู้ชายผิวขาวและเอเชียมากที่สุด และผู้หญิงผิวดำน้อยที่สุด

หุ่นยนต์ยังระบุด้วยว่าผู้หญิงเป็น "แม่บ้าน" มากกว่าผู้ชายผิวขาว ผู้ชายผิวดำเป็น "อาชญากร" มากกว่าผู้ชายผิวขาว 10% ผู้ชายลาตินเป็น "ภารโรง" มากกว่าผู้ชายผิวขาว 10% และผู้ชายเป็น "แพทย์" มากกว่าผู้หญิงทั้งหมดไม่ว่าเชื้อชาติอะไร

Andrew Hundt แห่ง Georgia Tech กล่าวว่า "หุ่นยนต์ได้เรียนรู้การเหมารวมที่เป็นพิษผ่านโมเดลโครงข่ายประสาทเทียมที่มีข้อบกพร่องเหล่านี้"

อ่านข่าวเต็มได้ที่: Johns Hopkins University Hub

ไม่มีความคิดเห็น:

แสดงความคิดเห็น