วันเสาร์ที่ 24 มกราคม พ.ศ. 2569

AI ช่วยส่งเสริมอาชีพนักวิจัย แต่ทำให้การค้นพบทางวิทยาศาสตร์ราบเรียบเกินไป

ิbroken-pencils
ภาพจาก IEEE Spectrum โดย Elie Dolgin 

นักวิจัยจาก University of Chicago และ Beijing National Research Center for Information Science and Technology ของประเทศจีน พบว่านักวิทยาศาสตร์ที่ใช้เครื่องมือ AI ในการทำงาน มีผลงานตีพิมพ์มากกว่ากลุ่มที่ไม่ใช้ถึง 3 เท่า และได้รับการอ้างอิง (citations) สูงกว่าเกือบ 5 เท่า นอกจากนี้ยังสามารถก้าวขึ้นสู่บทบาทผู้นำได้เร็วกว่าปกติถึง 1-2 ปี

อย่างไรก็ตาม ผลการศึกษายังระบุว่า AI ส่วนใหญ่ถูกนำมาใช้เพื่อปรับปรุงขั้นตอนการทำงานวิจัยในส่วนที่ง่ายให้เป็นระบบอัตโนมัติ (automates easier parts) มากกว่าที่จะเป็นการช่วยขยายขอบเขตการค้นพบทางวิทยาศาสตร์ใหม่ ๆ (expanding scientific discovery)

อ่านข่าวเต็มได้ที่: IEEE Spectrum โดย Elie Dolgin

วันศุกร์ที่ 23 มกราคม พ.ศ. 2569

การวัดประสิทธิภาพของคอมพิวเตอร์ควอนตัมแบบใช้สปิน (spin-based)

quantum-bits
ภาพจาก  Physics

นักวิจัยได้ทำการทดสอบเกณฑ์มาตรฐาน (Benchmark) สำหรับคอมพิวเตอร์ควอนตัมขนาด 6 คิวบิต (six-qubit quantum computer) ที่สร้างขึ้นจากสปินของอิเล็กตรอน (electron spins) ภายในสารกึ่งตัวนำชนิดจุดควอนตัม (semiconductor quantum dots)

สิ่งที่แตกต่างจากคอมพิวเตอร์ควอนตัมแบบตัวนำยิ่งยวด (Superconducting quantum computers) คือ อุปกรณ์แบบใช้สปิน (spin-based devices) สามารถผลิตขึ้นได้ด้วยเทคนิค complementary-metal-oxide-semiconductor (CMOS) แบบเดียวกับที่ใช้ในกระบวนการผลิตวงจรรวม (Integrated circuits) ทั่วไป

ทีมวิจัยได้ทดสอบวงจรที่มีความซับซ้อนโดยการแพร่กระจายสภาวะพัวพัน (entanglement) ไปทั่วทั้ง 6 คิวบิต จากนั้นจึงทำการย้อนกลับกระบวนการเพื่อวัดค่าความแม่นยำ ผลการทดสอบพบว่าค่าความเที่ยงตรง (fidelity) ลดลงเมื่อมีการใช้จำนวนคิวบิตมากขึ้นและมีการทำงานที่ยาวนานขึ้น ซึ่งสาเหตุหลักเกิดจากการสะสมของสัญญาณรบกวน (noise)

อ่านข่าวเต็มได้ที่: Physics

วันพฤหัสบดีที่ 22 มกราคม พ.ศ. 2569

กลับบิตเพียงหนึ่งบิตก็ทำให้ซีพียู AMD เปิดช่องโหว่ของเครื่องเสมือนได้แล้ว

AMD-Chip
Photo by Andrew D on Unsplash

นักวิทยาศาสตร์คอมพิวเตอร์จากสถาบัน CISPA Helmholtz Center for Information Security ในประเทศเยอรมนี ได้ตรวจพบช่องโหว่ในหน่วยประมวลผล AMD Zen CPU ที่สามารถทำลายความปลอดภัยเชิงบูรณาการ (integrity) ของเครื่องเสมือนที่เป็นมีความปลอดภัยขั้นสูง (confidential virtual machines) ซึ่งใช้เทคโนโลยี AMD’s SEV-SNP ได้

ช่องโหว่ดังกล่าวมีชื่อว่า StackWarp เปิดโอกาสให้โฮสต์ที่ประสงค์ร้าย (malicious host) ที่มีการเปิดใช้งานระบบ simultaneous multithreading (SMT) สามารถเข้ามาจัดการกับ stack pointer ของเครื่องเสมือนที่ได้รับการป้องกันอยู่ได้ โดยการสลับบิตควบคุม (control bit) ที่ไม่มีการระบุไว้ในเอกสารเพียงบิตเดียว การโจมตีนี้อาจส่งผลให้ข้อมูลที่ละเอียดอ่อนถูกเปิดเผย ก้าวข้ามกลไกการตรวจสอบสิทธิ์ (authentication mechanisms) และสามารถเข้าถึงระบบในระดับ kernel ได้อย่างเต็มรูปแบบ

ทั้งนี้ AMD ได้ปล่อยแพตช์แก้ไขไปเมื่อเดือนกรกฎาคม 2025 และเผยแพร่ประกาศด้านความปลอดภัยโดยระบุว่าช่องโหว่นี้มีความรุนแรงในระดับต่ำ (low severity)

อ่านข่าวเต็มได้ที่: The Register (U.K.) โดย Thomas Claburn

วันพุธที่ 21 มกราคม พ.ศ. 2569

รายงานระบุว่า ความเสี่ยงของการใช้ AI ในโรงเรียนมีมากกว่าประโยชน์

students-using-laptop
ภาพจาก NPR โดย Cory Turner

รายงานฉบับใหม่จาก Brookings Institution สรุปว่าในปัจจุบัน ความเสี่ยงของการใช้ Generative AI ในการศึกษาระดับ K-12 (ระดับอนุบาลถึงมัธยมศึกษาตอนปลาย) นั้นมีน้ำหนักมากกว่าประโยชน์ที่ได้รับ

แม้ว่า AI จะสามารถช่วยในด้านการอ่าน การเขียน การวางแผนการสอน และการเพิ่มโอกาสในการเข้าถึงการศึกษาสำหรับนักเรียนที่มีความบกพร่องทางร่างกายหรือสติปัญญา แต่ในขณะเดียวกัน AI ก็อาจขัดขวางพัฒนาการทางสติปัญญา สังคม และอารมณ์ โดยการส่งเสริมให้เกิดการพึ่งพาเทคโนโลยีมากเกินไปและลดทอนทักษะการคิดวิเคราะห์ (critical thinking)

รายงานฉบับนี้ได้เรียกร้องให้มีการใช้ AI ในลักษณะที่เป็นส่วนเสริม (supplement) ไม่ใช่การเข้ามาแทนที่ (replace) ครูผู้สอน พร้อมทั้งเรียกร้องให้มี ความฉลาดทางดิจิทัลด้าน AI (AI literacy) แบบองค์รวม การเข้าถึงที่เท่าเทียม (equitable access) การออกแบบที่ยึดเด็กเป็นศูนย์กลาง (child-centered design)  และกฎระเบียบจากภาครัฐ (government regulation)

อ่านข่าวเต็มได้ที่: NPR โดย Cory Turner

วันอังคารที่ 20 มกราคม พ.ศ. 2569

CAISI ร้องขอข้อมูลเกี่ยวกับการรักษาความปลอดภัยของระบบ AI Agent

AI-Chip
Photo by Igor Omilaev on Unsplash

ศูนย์มาตรฐานและนวัตกรรม AI (Center for AI Standards and Innovation หรือ CAISI) ภายใต้สถาบันมาตรฐานและเทคโนโลยีแห่งชาติของสหรัฐฯ (National Institute of Standards and Technology - NIST) ได้ทำเรื่องขอข้อมูลและความคิดเห็นเกี่ยวกับการพัฒนาและการปรับใช้งานระบบ AI agent อย่างปลอดภัย

ทางศูนย์ได้เปิดรับข้อมูลจากเหล่านักพัฒนา AI agent, นักวิจัยด้านความปลอดภัยคอมพิวเตอร์ และผู้เกี่ยวข้องรายอื่นๆ ในประเด็นดังต่อไปนี้:

  • ภัยคุกคามด้านความปลอดภัย ที่ส่งผลกระทบต่อระบบ AI agent
  • วิธีการเสริมสร้างความปลอดภัย ทั้งในขั้นตอนการพัฒนาและการนำไปใช้งานจริง
  • ช่องว่างที่อาจเกิดขึ้น ในแนวทางการรักษาความปลอดภัยทางไซเบอร์สำหรับระบบ AI agent
  • แนวทางการวัดระดับความปลอดภัย รวมถึงการคาดการณ์ความเสี่ยงที่อาจเกิดขึ้นในระหว่างการพัฒนา

อ่านข่าวเต็มได้ที่: NIST