วันจันทร์ที่ 11 สิงหาคม พ.ศ. 2568

NIST ร่างแนวทางที่มีจุดมุ่งหมายที่จะปรับปรุงความปลอดภัยในการพัฒนาซอฟต์แวร์

NIST-SSDF
ภาพจาก NIST

National Cybersecurity Center of Excellence (NCCoE) ของ National Institute of Standards and Technology หรือ NIST ร่วมกับองค์กรสมาชิก 14 แห่งในกลุ่ม Software Supply Chain and DevOps Security Practices Consortium กำลังพัฒนาแนวทางสำหรับการพัฒนาซอฟต์แวร์ที่ปลอดภัย เพื่อตอบสนองต่อคำสั่งพิเศษของทำเนียบขาวฉบับที่ 14306

ร่างแนวทางดังกล่าวคือ NIST Special Publication 1800-44 ซึ่งได้สรุปแนวทางปฏิบัติระดับสูงของ DevSecOps และมีเจตนาที่จะต่อยอดจาก Secure Software Development Framework (SSDF) โดยขณะนี้เปิดรับความคิดเห็นจากสาธารณะเกี่ยวกับแนวทางดังกล่าวจนถึงวันที่ 12 กันยายน 2025

อ่านข่าวเต็มได้ที่: NIST

วันอาทิตย์ที่ 10 สิงหาคม พ.ศ. 2568

Tesla ถูกตัดสินว่ามีความผิดบางส่วนในเหตุที่รถขับเคลื่อนอัตโนมัติชนกันจนมีผู้เสียชีวิต

Tesla
ภาพจาก BBC News โดย  Lily Jamali

เมื่อวันที่ 1 สิงหาคมที่ผ่านมา คณะลูกขุนในรัฐฟลอริดาได้ตัดสินว่า ข้อผิดพลาดในซอฟต์แวร์ขับเคลื่อนตัวเองของ Tesla มีส่วนทำให้เกิดอุบัติเหตุในปี 2019 ซึ่งเป็นเหตุให้หญิงสาววัย 22 ปีเสียชีวิต และอีกคนได้รับบาดเจ็บสาหัส

คำตัดสินนี้ถือเป็นความพ่ายแพ้ครั้งสำคัญของบริษัทรถยนต์รายนี้ ซึ่งกำลังทุ่มเทอนาคตส่วนใหญ่ไปกับการพัฒนารถแท็กซี่ไร้คนขับ หากคำตัดสินนี้ยืนยันตามการอุทธรณ์ Tesla อาจต้องจ่ายค่าเสียหายเชิงลงโทษและค่าชดเชยสูงถึง 243 ล้านดอลลาร์

อ่านข่าวเต็มได้ที่: BBC News โดย  Lily Jamali

วันเสาร์ที่ 9 สิงหาคม พ.ศ. 2568

เกือบครึ่งหนึ่งของโค้ดทั้งหมดที่สร้างโดย AI มีข้อบกพร่องด้านความปลอดภัย

typing-keyboard
ภาพจาก TechRadar โดย Craig Hale

งานวิจัยล่าสุดจาก Veracode ผู้ให้บริการโซลูชันความปลอดภัยแอปพลิเคชัน เปิดเผยว่า 45% ของโค้ดที่สร้างโดย AI มีช่องโหว่ด้านความปลอดภัย โดยยังไม่พบการปรับปรุงที่ชัดเจนในจุดนี้ จากโมเดลภาษาขนาดใหญ่ (Large Language Model) หรือ LLM ที่มีขนาดใหญ่ขึ้น หรือใหม่กว่า

จากการวิเคราะห์โมเดลกว่า 100 โมเดลในงานเขียนโค้ด 80 ชิ้น พบว่า โค้ดภาษา Java ได้รับผลกระทบมากที่สุด โดยมีอัตราความล้มเหลวเกิน 70% ตามมาด้วย Python, C# และ JavaScript 

รายงานยังเตือนว่า การพึ่งพาการเขียนโค้ดด้วย AI โดยไม่มีการกำหนดมาตรการความปลอดภัยที่ชัดเจน ซึ่งเรียกว่า "vibe coding" อาจเพิ่มความเสี่ยงให้สูงขึ้น

อ่านข่าวเต็มได้ที่: TechRadar โดย Craig Hale

วันศุกร์ที่ 8 สิงหาคม พ.ศ. 2568

หนึ่งในห้าของบทความวิทยาการคอมพิวเตอร์อาจมีเนื้อหาที่สร้างจาก AI

chatGPT
ภาพจาก Science โดย Phie Jacobs 

จากการวิเคราะห์บทคัดย่อและบทนำของบทความกว่า 1 ล้านชิ้นในวงกว้าง โดยนักวิจัยจาก Stanford University และ University of California, Santa Barbara พบว่า เกือบหนึ่งในห้าของบทความวิทยาการคอมพิวเตอร์ที่ตีพิมพ์ในปี 2024 อาจมีข้อความที่สร้างขึ้นโดย AI

ผลการศึกษาพบว่า ณ เดือนกันยายน 2024 บทความวิทยาการคอมพิวเตอร์ถึง 22.5% แสดงร่องรอยการได้ข้อมูลมาจากโมเดลภาษาขนาดใหญ่ (large language models) เช่น ChatGPT 

นักวิจัยใช้การสร้างตัวแบบทางสถิติเพื่อตรวจจับรูปแบบคำศัพท์ทั่วไปที่เชื่อมโยงกับงานเขียนของ AI

อ่านข่าวเต็มได้ที่: Science โดย Phie Jacobs

วันเสาร์ที่ 26 กรกฎาคม พ.ศ. 2568

นักวิจัยเลี่ยงลายน้ำป้องกัน Deepfake บนรูปภาพที่ถูกสร้างด้วย AI ได้สำเร็จ

U-Of-Waterloo
ภาพจาก  CBC News (Canada) โดย Anja Karadeglija

นักวิจัยจาก University of Waterloo ในประเทศแคนาดา ได้พัฒนาเครื่องมือที่สามารถลบลายน้ำ ที่ระบุว่าเนื้อหานั้นถูกสร้างขึ้นโดย AI ได้อย่างรวดเร็ว เครื่องมือ UnMarker ซึ่งสามารถลบลายน้ำ (watermark) ได้โดยไม่ต้องรู้ข้อมูลเกี่ยวกับระบบที่สร้างลายน้ำนั้นขึ้นมา หรือแม้แต่ข้อมูลเกี่ยวกับตัวลายน้ำเอง

Andre Kassis จาก University of อธิบายว่า "เราแค่ใช้เครื่องมือนี้ และภายในเวลาไม่เกินสองนาที มันก็จะแสดงผลเป็นภาพที่ดูเหมือนภาพต้นฉบับที่มีลายน้ำทุกประการ" แต่ภาพที่ได้จะไม่มีลายน้ำที่บ่งบอกว่าภาพนั้นสร้างโดย AI อีกต่อไป

อ่านข่าวเต็มได้ที่: CBC News (Canada) โดย Anja Karadeglija