วันพุธที่ 15 กรกฎาคม พ.ศ. 2563
หมึกชีวภาพสำหรับพิมพ์สามมิติในร่างกาย
วันอังคารที่ 14 กรกฎาคม พ.ศ. 2563
การศึกษาพบว่ามีเพียง 18% ของนักศึกษาด้านวิทยาศาสตร์ข้อมูลที่ศึกษาจริยธรรมของ AI
จากการสำรวจของบริษัทซอฟต์แวร์ Anaconda พบว่ามีเพียง 15% ของอาจารย์มหาวิทยาลัยที่สอนเรื่องจริยธรรมของ AI และมีเพียง 18% ของนักศึกษาเท่านั้นที่บอกว่าเรียนด้านนี้ แต่ตัวเลขที่ต่ำนี้ไม่ได้เกิดจากความไม่สนใจ จากการสำรวจนักศึกษาด้านวิทยาศาสตร์ข้อมูล นักวิชาการ และมืออาชีพจากกว่า 100 ประเทศ พบว่าผู้ตอบแบบสอบถามเกือบครึ่งหนึ่งตอบว่าปัญหาที่ใหญ่ที่สุดด้าน AI และการเรียนรู้ของเครื่อง (machine learnig) คือผลกระทบด้านสังคมของอคติ หรือความเป็นส่วนตัว นั่นคือมีความกังวลในด้านนี้ เพียงแต่มันไม่ได้สะท้อนกลับเข้าไปในหลักสูตรการเรียนการสอน จากการสำรวจยังพบว่ามีเพียง 15% ที่ตอบว่าองค์กรของตัวเองมีระบบที่ยุติธรรม และมีเพียง 19% ที่ตอบว่าระบบที่ใช้อยู่สามารถอธิบายเหตุผลต่าง ๆ ได้ นักวิจัยสรุปว่าจากประเด็นต่าง ๆ ที่ได้ทำการศึกษาพบว่า ความก้าวหน้าที่ช้าในประเด็นของอคติและความยุติธรรม และการทำให้การเรียนรู้ของเครื่องอธิบายได้ เป็นหัวข้อที่มีความกังวลมากที่สุด ถึงแม้ทั้งสองเรื่องนี้จะแตกต่างแต่ก็มีความสัมพันธ์กัน และทั้งสองเรื่องนี้เป็นหัวข้อคำถามที่สำคัญทั้งด้านสังคม อุตสาหกรรม และการศึกษา ในขณะที่ทั้งภาคธุรกิจและภาคการศึกษากำลังพูดกันถึงเรื่องจริยธรรมของ AI แต่มันก็อาจไม่มีประโยชน์อะไรถ้าไม่มีการปฏิบัติ
อ่านข่าวเต็มได้ที่: The Next Web
เพิ่มเติมเสริมข่าว:
ส่วนตัวมองว่าระบบที่อธิบายให้เข้าใจได้ และยอมรับได้ว่าทำไมตัดสินออกมาอย่างนี้เป็นเรื่องสำคัญ อย่าปล่อยให้มีคำว่าก็คอมพิวเตอร์มันบอกมาแบบนั้น โดยไม่มีเหตุผล แต่ประเทศเราคงอาจเจอกับประสบการณ์นี้แล้วคือเรื่องลงทะเบียนเราไม่ทิ้งกัน และประชาชนก็ไปประท้วงระบบ ดังนั้นคนไทยน่าจะมีภูมิต้านทานในเรื่องนี้อยู่บ้าง จริง ๆ เราต้องสอนให้คนเข้าใจว่า AI หรือ การเรียนรู้ของเครื่องมันก็คือตัวแบบทางคณิตศาสตร์ที่สร้างจากคน มันทำงานบนเงื่อนไข และข้อมูลต่าง ๆ ที่มาจากคนสร้างตัวแบบ ดังนั้นมันก็อาจจะมีอคติ และความไม่ยุติธรรมได้ และตัวแบบพวกนี้สามารถถูกปรับได้ถ้าพบความบกพร่อง