ภาพจาก Cornell Tech |
นักวิจัยจาก Cornell University และสถาบันพันธมิตรได้วิเคราะห์ว่ามนุษย์สามารถแปลความหมายของรูปผิดได้อย่างไร เพื่อพัฒนาอัลกอริทึมที่สามารถช่วยให้ผู้คนแปลความหมายข้อมูลภาพได้ดีขึ้น
นักวิจัยประเมินการคาดการณ์ 16 ล้านรายการของมนุษย์ว่าคนในชุมชนโหวตให้ทรัมป์หรือไบเดนในปี 2020 จากภาพ Google Street View และพบว่าอัลกอริทึมเก่งกว่าคนในการแยกความแตกต่างระหว่างผู้มีสิทธิเลือกตั้ง
การวิเคราะห์ยังระบุวัตถุในภาพซึ่งนำไปสู่การคาดการณ์ที่ผิด เช่น ธงชาติอเมริกาและรถกระบะ นักวิจัยกล่าวว่าข้อผิดพลาดของมนุษย์ขึ้นอยู่กับอคติ ความแปรปรวน หรือสัญญาณรบกวน และแนะนำว่าการวิจัยนี้อาจนำไปสู่ระบบไฮบริดระหว่างมนุษย์กับเครื่องจักรที่ทำให้การคาดการณ์มีประสิทธิภาพมากขึ้น
อ่านข่าวเต็มได้ที่: Cornell Tech
ไม่มีความคิดเห็น:
แสดงความคิดเห็น