Photo by Shayna Douglas on Unsplash |
นักวิจัยจาก University of Chicago กำลังช่วยเหลือศิลปินในการปกป้องผลงานของตนเองจากการถูกนำไปใช้ในการฝึกโมเดล AI สร้างสรรค์
เครื่องมือ Glaze ที่พวกเขาพัฒนาขึ้นจะทำการปรับเปลี่ยนรูปภาพอย่างละเอียดเพื่อหลอก AI ให้ตรวจจับสไตล์ศิลปะที่แตกต่างออกไป
ในขณะที่เครื่องมือ Nightshade ทำให้โมเดล AI ที่กำลังฝึกฝนเกิดความสับสนว่าอะไรคือสิ่งที่อยู่ในภาพ อย่างไรก็ตาม Jinghui Chen จากมหาวิทยาลัยแห่งรัฐเพนซิลเวเนียเตือนว่า "เมื่อ AI แข็งแกร่งขึ้นเรื่อย ๆ เครื่องมือต่อต้าน AI เหล่านี้ก็จะอ่อนแอลงเรื่อย ๆ"
อ่านข่าวเต็มได้ที่: Associated Press โดย Sarah Parvini
ไม่มีความคิดเห็น:
แสดงความคิดเห็น