ภาพจาก Max Planck Institute for Human Development (Germany) |
ทีมนักวิทยาศาสตร์คอมพิวเตอร์นานาชาติสรุปว่า จากการคำนวณทางทฤษฎี ปัญญาประดิษฐ์ที่มีความฉลาดยิ่งยวด (superintelligent artificial intelligence) จะอยู่นอกเหนือการควบคุมของมนุษย์ นักวิจัยเสนอขั้นตอนวิธีการกักกันทางทฤษฎีที่จะทำให้มั่นใจว่า AI ฉลาดยิ่งยวดนี้จะไม่ทำร้ายคนโดยสร้างตัวแบบพฤติกรรมของมันขึ้นมาก่อน และหยุดมันถ้ามันจะเป็นอันตราย แต่จากการวิเคราะห์บ่งชี้ว่าปัจจุบันนี้ยังไม่สามารถสร้างขั้นตอนวิธีดังกล่าวขึ้นมาได้ และต่อให้สร้างขึ้นมาได้นักวิจัยบอกว่าถ้าเราแตกปัญหาออกจนถึงกฏพื้นฐานจากวิทยาศาสตร์คอมพิวเตอร์เชิงทฤษฎี มันจะเป็นไปได้ว่าขั้นตอนวิธีที่จะสั่ง AI ไม่ให้ทำลายโลกอาจหยุดการทำงานโดยไม่คาดหมาย และถ้ามันเกิดขึ้นเราก็ไม่มีทางรู้เลยว่าขั้นตอนการกักกันยังทำการวิเคราะห์อยู่ หรือมันยอมรับตัว AI อันตรายเข้ามาแล้ว และยิ่งไปกว่านั้นขั้นตอนวิธีที่จะระบุว่านี่คือปัญญาประดิษฐ์ที่ฉลาดยิ่งยวดก็ยังสร้างไม่ได้เช่นกัน
อ่านข่าวเต็มได้ที่: Max Planck Institute for Human Development (Germany)
ไม่มีความคิดเห็น:
แสดงความคิดเห็น