ภาพจาก Associated Press โดย Ali Swenson |
การทดสอบเครื่องมือโคลนเสียงด้วย AI ที่ได้รับความนิยม 6 ตัว โดยนักวิจัยจากศูนย์ต่อต้านความเกลียดชังทางดิจิทัล (Center for Countering Digital Hate) ซึ่งเป็นกลุ่มสิทธิพลเมืองดิจิทัลในกรุงวอชิงตัน พบว่าเครื่องมือเหล่านี้สามารถสร้างเสียงโคลนของบุคคลสำคัญทางการเมืองได้อย่างน่าเชื่อถือ
จากการทดสอบ 240 ครั้ง เครื่องมือสามารถสร้างเสียงโคลนที่น่าเชื่อถือได้ถึง 193 ครั้ง หรือคิดเป็น 80% ของการทดสอบทั้งหมด แม้ว่าเครื่องมือบางตัวจะตั้งกฎ หรือใช้การขัดขวางทางเทคโนโลยีเพื่อป้องกันการสร้างข้อมูลเท็จเกี่ยวกับการเลือกตั้ง แต่นักวิจัยพบว่าสิ่งจ่าง ๆ เหล่านั้นสามารถหลีกเลี่ยงได้โดยง่าย
อ่านข่าวเต็มได้ที่: Associated Press โดย Ali Swenson
ไม่มีความคิดเห็น:
แสดงความคิดเห็น