วันจันทร์ที่ 3 ตุลาคม พ.ศ. 2565

AI แสดงให้เห็นว่าคนเราแปลความหมายรูปผิดได้ยังไง

man-with-truck
ภาพจาก Cornell Tech

นักวิจัยจาก Cornell University และสถาบันพันธมิตรได้วิเคราะห์ว่ามนุษย์สามารถแปลความหมายของรูปผิดได้อย่างไร เพื่อพัฒนาอัลกอริทึมที่สามารถช่วยให้ผู้คนแปลความหมายข้อมูลภาพได้ดีขึ้น

นักวิจัยประเมินการคาดการณ์ 16 ล้านรายการของมนุษย์ว่าคนในชุมชนโหวตให้ทรัมป์หรือไบเดนในปี 2020 จากภาพ Google Street View และพบว่าอัลกอริทึมเก่งกว่าคนในการแยกความแตกต่างระหว่างผู้มีสิทธิเลือกตั้ง 

การวิเคราะห์ยังระบุวัตถุในภาพซึ่งนำไปสู่การคาดการณ์ที่ผิด เช่น ธงชาติอเมริกาและรถกระบะ นักวิจัยกล่าวว่าข้อผิดพลาดของมนุษย์ขึ้นอยู่กับอคติ ความแปรปรวน หรือสัญญาณรบกวน และแนะนำว่าการวิจัยนี้อาจนำไปสู่ระบบไฮบริดระหว่างมนุษย์กับเครื่องจักรที่ทำให้การคาดการณ์มีประสิทธิภาพมากขึ้น

อ่านข่าวเต็มได้ที่: Cornell Tech


ไม่มีความคิดเห็น:

แสดงความคิดเห็น