คำสั่งฝ่ายบริหารที่ลงนามเมื่อวันที่ 11 ธันวาคม โดยประธานาธิบดี Donald Trump แห่งสหรัฐฯ ได้ระงับไม่ให้มลรัฐต่างๆ บังคับใช้กฎระเบียบด้าน AI ของตนเอง และเรียกร้องให้มีการจัดตั้ง "กรอบการทำงานระดับชาติเพียงหนึ่งเดียว (single national framework)" สำหรับ AI
ทางด้าน David Sacks ผู้รับผิดชอบด้านคริปโทและ AI ประจำทำเนียบขาว กล่าวว่าคณะทำงานไม่มีแผนที่จะคัดค้านกฎหมาย AI ของมลรัฐทุกฉบับ และจะไม่มุ่งเป้าจัดการกับกฎระเบียบระดับรัฐที่เกี่ยวข้องกับความปลอดภัยของเด็กและ AI
ดัชนีความปลอดภัย AI (AI safety index) ฉบับล่าสุดจากองค์กรไม่แสวงหาผลกำไร Future of Life Institute พบว่าบริษัท AI ชั้นนำอย่าง Anthropic, OpenAI, xAI และ Meta ไม่ผ่านเกณฑ์มาตรฐานความปลอดภัยระดับโลกที่กำลังเกิดขึ้นใหม่
Max Tegmark ประธานของ Future of Life ได้ตั้งข้อสังเกตว่า "บริษัท AI ในสหรัฐฯ ยังคงถูกกำกับดูแลน้อยกว่าร้านอาหารเสียอีก และพวกเขายังคงเดินหน้าวิ่งเต้น (Lobbying) เพื่อต่อต้านมาตรฐานความปลอดภัยที่มีผลผูกพันทางกฎหมาย"
แม้ว่า AI จะมีความสามารถในการเขียนโค้ดได้ดีขึ้นเรื่อยๆ แต่ Geoffrey Hinton ผู้ได้รับรางวัล ACM A.M. Turing Award ได้กล่าวในการให้สัมภาษณ์กับ Business Insider ว่า ปริญญาสาขาวิทยาการคอมพิวเตอร์ (Computer Science) และการเรียนรู้ที่จะเขียนโค้ดนั้นยังคงมีคุณค่า
สำหรับผู้ที่ต้องการก้าวขึ้นเป็นนักวิจัยหรือวิศวกร AI ระดับสูง Hinton แนะนำให้มุ่งเน้นไปที่การคิดเชิงวิพากษ์ (Critical thinking) แทนที่จะเน้นทักษะเฉพาะเจาะจงที่อาจถูกแทนที่โดย AI ได้
พิมพ์เขียวแอปพลิเคชันยืนยันอายุฉบับที่สองที่เผยแพร่โดยคณะกรรมาธิการยุโรป เรียกร้องให้มีการรวม พาสปอร์ตและบัตรประจำตัวประชาชน และ eID เข้าเป็นวิธีการเริ่มต้นใช้งาน (onboarding methods) สำหรับการสร้างหลักฐานยืนยันอายุ และสนับสนุนการใช้งาน Digital Credentials API
พิมพ์เขียวนี้ซึ่งเปิดตัวในเดือนกรกฎาคม สามารถทำงานร่วมกันได้อย่างสมบูรณ์กับ EU Digital Identity Wallets ที่กำลังจะเปิดตัว และจะทำหน้าที่เป็นรากฐานสำคัญสำหรับการพัฒนาเครื่องมือในระดับท้องถิ่นโดยประเทศสมาชิกสหภาพยุโรปและบริษัทในภาคเอกชนต่อไป
แม้เครื่องมือเขียนโค้ด AI จะก้าวหน้าอย่างรวดเร็ว ทั้งในด้านการสร้างโค้ด การแก้ไขข้อผิดพลาด และการปรับปรุงเอกสาร แต่ทีมนักวิจัย Cornell University, Massachusetts Institute of Technology, Stanford University, และ University of California, Berkeley ได้นำเสนอหลักฐานที่แสดงให้เห็นว่า AI ยังไม่พร้อมที่จะทำหน้าที่เป็นนักเขียนโค้ดอิสระอย่างสมบูรณ์
National Cybersecurity Center of Excellence (NCCoE) ของ National Institute of Standards and Technology หรือ NIST ร่วมกับองค์กรสมาชิก 14 แห่งในกลุ่ม Software Supply Chain and DevOps Security Practices Consortium กำลังพัฒนาแนวทางสำหรับการพัฒนาซอฟต์แวร์ที่ปลอดภัย เพื่อตอบสนองต่อคำสั่งพิเศษของทำเนียบขาวฉบับที่ 14306
ร่างแนวทางดังกล่าวคือ NIST Special Publication 1800-44 ซึ่งได้สรุปแนวทางปฏิบัติระดับสูงของ DevSecOps และมีเจตนาที่จะต่อยอดจาก Secure Software Development Framework (SSDF) โดยขณะนี้เปิดรับความคิดเห็นจากสาธารณะเกี่ยวกับแนวทางดังกล่าวจนถึงวันที่ 12 กันยายน 2025
จากการวิเคราะห์บทคัดย่อและบทนำของบทความกว่า 1 ล้านชิ้นในวงกว้าง โดยนักวิจัยจาก Stanford University และ University of California, Santa Barbara พบว่า เกือบหนึ่งในห้าของบทความวิทยาการคอมพิวเตอร์ที่ตีพิมพ์ในปี 2024 อาจมีข้อความที่สร้างขึ้นโดย AI
นักวิจัยจาก University of Waterloo ในประเทศแคนาดา ได้พัฒนาเครื่องมือที่สามารถลบลายน้ำ ที่ระบุว่าเนื้อหานั้นถูกสร้างขึ้นโดย AI ได้อย่างรวดเร็ว เครื่องมือ UnMarker ซึ่งสามารถลบลายน้ำ (watermark) ได้โดยไม่ต้องรู้ข้อมูลเกี่ยวกับระบบที่สร้างลายน้ำนั้นขึ้นมา หรือแม้แต่ข้อมูลเกี่ยวกับตัวลายน้ำเอง
Andre Kassis จาก University of อธิบายว่า "เราแค่ใช้เครื่องมือนี้ และภายในเวลาไม่เกินสองนาที มันก็จะแสดงผลเป็นภาพที่ดูเหมือนภาพต้นฉบับที่มีลายน้ำทุกประการ" แต่ภาพที่ได้จะไม่มีลายน้ำที่บ่งบอกว่าภาพนั้นสร้างโดย AI อีกต่อไป
การศึกษาของ Stanford University ที่ประเมินแชทบอทสุขภาพจิตที่ขับเคลื่อนด้วย AI ห้าตัว พบว่าแชทบอทเหล่านี้มีความเสี่ยงด้านความปลอดภัย โดยแสดงให้เห็นถึงอคติและไม่สามารถตอบสนองได้อย่างเหมาะสมในสถานการณ์ที่มีความเสี่ยงสูง