แสดงบทความที่มีป้ายกำกับ sarunitnews แสดงบทความทั้งหมด
แสดงบทความที่มีป้ายกำกับ sarunitnews แสดงบทความทั้งหมด

วันจันทร์ที่ 15 ธันวาคม พ.ศ. 2568

คำสั่งบริหารของทรัมป์ห้ามรัฐต่างๆ บังคับใช้กฎระเบียบด้านปัญญาประดิษฐ์ของตนเอง

buildings
Photo by Toomas Tartes on Unsplash

คำสั่งฝ่ายบริหารที่ลงนามเมื่อวันที่ 11 ธันวาคม โดยประธานาธิบดี Donald Trump แห่งสหรัฐฯ ได้ระงับไม่ให้มลรัฐต่างๆ บังคับใช้กฎระเบียบด้าน AI ของตนเอง และเรียกร้องให้มีการจัดตั้ง "กรอบการทำงานระดับชาติเพียงหนึ่งเดียว (single national framework)" สำหรับ AI

ทางด้าน David Sacks ผู้รับผิดชอบด้านคริปโทและ AI ประจำทำเนียบขาว กล่าวว่าคณะทำงานไม่มีแผนที่จะคัดค้านกฎหมาย AI ของมลรัฐทุกฉบับ และจะไม่มุ่งเป้าจัดการกับกฎระเบียบระดับรัฐที่เกี่ยวข้องกับความปลอดภัยของเด็กและ AI

อ่านข่าวเต็มได้ที่: CNN โดย  Samantha Waldenberg, Hadas Gold และ Clare Duffy

วันอาทิตย์ที่ 14 ธันวาคม พ.ศ. 2568

ผลการศึกษาชี้ให้เห็นว่า แนวปฏิบัติด้านความปลอดภัยของบริษัท AI ไม่เป็นไปตามมาตรฐานสากล

ืOpen-AI
ภาพจาก Reuters โดย Zaheer Kachwala และ Arnav Mishra

ดัชนีความปลอดภัย AI (AI safety index) ฉบับล่าสุดจากองค์กรไม่แสวงหาผลกำไร Future of Life Institute พบว่าบริษัท AI ชั้นนำอย่าง Anthropic, OpenAI, xAI และ Meta ไม่ผ่านเกณฑ์มาตรฐานความปลอดภัยระดับโลกที่กำลังเกิดขึ้นใหม่

ผลการประเมินความปลอดภัยระบุว่า ไม่มีบริษัทใดเลยที่มีกลยุทธ์ที่แข็งแกร่งเพียงพอในการควบคุมระบบที่มีความฉลาดเหนือมนุษย์ (Superintelligent systems) แม้ว่าบริษัทเหล่านี้จะกำลังเร่งพัฒนาระบบดังกล่าวกันอย่างเต็มที่ก็ตาม

Max Tegmark ประธานของ Future of Life ได้ตั้งข้อสังเกตว่า "บริษัท AI ในสหรัฐฯ ยังคงถูกกำกับดูแลน้อยกว่าร้านอาหารเสียอีก และพวกเขายังคงเดินหน้าวิ่งเต้น (Lobbying) เพื่อต่อต้านมาตรฐานความปลอดภัยที่มีผลผูกพันทางกฎหมาย"

อ่านข่าวเต็มได้ที่: Reuters โดย Zaheer Kachwala และ Arnav Mishra

วันเสาร์ที่ 13 ธันวาคม พ.ศ. 2568

นักวิจัยพบว่าการโจมตีด้วยแรนซัมแวร์บนไฮเปอร์ไวเซอร์เพิ่มขึ้น

OS
Photo by Claudio Schwarz on Unsplash

นักวิจัยจากบริษัทซอฟต์แวร์ความปลอดภัย Huntress รายงานว่า Ransomware ที่มุ่งโจมตี Hypervisor มีสัดส่วนเพิ่มขึ้นจาก 3% ของการเข้ารหัสที่เป็นอันตรายทั้งหมดในช่วงครึ่งแรกของปี 2025 พุ่งสูงขึ้นเป็น 25% ในช่วงครึ่งหลังของปี โดยระบุว่ากลุ่ม Akira ransomware คือผู้อยู่เบื้องหลังกิจกรรมส่วนใหญ่นี้

นักวิจัยกล่าวว่า สาเหตุที่ผู้โจมตีหันมามุ่งเป้าไปที่ Hypervisors นั้น เป็นเพราะระบบเหล่านี้ยังขาดการป้องกันที่เพียงพอ

อ่านข่าวเต็มได้ที่: The Register โดย Simon Sharwood

วันศุกร์ที่ 12 ธันวาคม พ.ศ. 2568

'เจ้าพ่อแห่งปัญญาประดิษฐ์' กล่าวว่า นักเรียนยังคงควรเรียนการเขียนโค้ดต่อไป

Geoffrey-Hinton
ภาพจาก Business Insider โดย Brent D. Griffiths

แม้ว่า AI จะมีความสามารถในการเขียนโค้ดได้ดีขึ้นเรื่อยๆ แต่ Geoffrey Hinton ผู้ได้รับรางวัล ACM A.M. Turing Award ได้กล่าวในการให้สัมภาษณ์กับ Business Insider ว่า ปริญญาสาขาวิทยาการคอมพิวเตอร์ (Computer Science) และการเรียนรู้ที่จะเขียนโค้ดนั้นยังคงมีคุณค่า

สำหรับผู้ที่ต้องการก้าวขึ้นเป็นนักวิจัยหรือวิศวกร AI ระดับสูง Hinton แนะนำให้มุ่งเน้นไปที่การคิดเชิงวิพากษ์ (Critical thinking) แทนที่จะเน้นทักษะเฉพาะเจาะจงที่อาจถูกแทนที่โดย AI ได้

Hinton ยังกล่าวอีกว่า ทักษะบางอย่างจะมีคุณค่าเสมอ เช่น คณิตศาสตร์ (Math), สถิติ (Statistics), ทฤษฎีความน่าจะเป็น (Probability theory) และพีชคณิตเชิงเส้น (Linear algebra)

อ่านข่าวเต็มได้ที่: Business Insider โดย Brent D. Griffiths

วันอังคารที่ 9 ธันวาคม พ.ศ. 2568

Microsoft ปิดช่องโหว่ไฟล์ทางลัดของ Windows อย่างเงียบ ๆ หลังจากถูกจารกรรมข้อมูลมานานหลายปี

Microsoft
Photo by Simon Ray on Unsplash

Microsoft ได้แก้ไขช่องโหว่ที่สำคัญในไฟล์ทางลัด (shortcut) ของ Windows ซึ่งนักวิจัยจาก Trend Micro ระบุว่าถูกใช้ประโยชน์โดยกลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐบาล 11 กลุ่ม นับตั้งแต่ปี 2017 ซึ่งรวมถึงกลุ่มจากเกาหลีเหนือ อิหร่าน รัสเซีย และจีน 

ช่องโหว่ดังกล่าวทำให้ไฟล์ทางลัด .lnk ที่เป็นอันตรายสามารถซ่อนเพย์โหลด (payloads) ที่มุ่งร้ายได้ โดยการเติมอาร์กิวเมนต์บรรทัดคำสั่ง (command-line arguments) ที่เป็นอันตรายด้วยช่องว่าง (whitespace) หรืออักขระที่ไม่สามารถพิมพ์ได้ (non-printing characters) 

ด้วยการแก้ไขนี้ คำสั่งทั้งหมดจะถูกแสดงในกล่องโต้ตอบ "Properties" ของ Windows

อ่านข่าวเต็มได้ที่: The Register โดย Carly Page

วันจันทร์ที่ 8 ธันวาคม พ.ศ. 2568

สวิตเซอร์แลนด์เตือนไม่ให้ใช้ Microsoft 365 และบริการคลาวด์อื่นๆ เนื่องจากขาดการเข้ารหัสที่เหมาะสม

icons
ภาพจาก TechRadar โดย Craig Hale

Privatim ซึ่งเป็นที่ประชุมของเจ้าหน้าที่คุ้มครองข้อมูลของสวิตเซอร์แลนด์ (Conference of Swiss Data Protection Officers) ได้ออกคำเตือนเกี่ยวกับการใช้บริการ Microsoft 365, Amazon's AWS, และ Google Cloud เนื่องจากบริการเหล่านี้ ขาดการเข้ารหัสแบบ End-to-End ที่แท้จริง (true end-to-end encryption)

Privatim ระบุว่า ข้อมูลที่มีความอ่อนไหวและเป็นความลับสูงไม่ควรถูกจัดเก็บไว้กับผู้ให้บริการ SaaS ระดับนานาชาติ เว้นแต่ว่าข้อมูลเหล่านั้นจะได้รับการเข้ารหัสโดยรัฐบาล และผู้ให้บริการถูกห้ามไม่ให้เข้าถึงคีย์ (Keys) การเข้ารหัส

ในทางตรงกันข้าม Proton ของสวิตเซอร์แลนด์ ใช้โครงสร้างพื้นฐานของสวิตเซอร์แลนด์และสหภาพยุโรป (EU) รวมถึงมีการเข้ารหัสฝั่งไคลเอนต์ (client-side encryption)

อ่านข่าวเต็มได้ที่: TechRadar โดย Craig Hale

วันอาทิตย์ที่ 7 ธันวาคม พ.ศ. 2568

รายงานบุคลากรด้านความมั่นคงทางไซเบอร์พบว่าปัญหาการขาดแคลนบุคลากรที่มีทักษะกำลังเลวร้ายลง

cyber-security
ภาพจาก Computing (U.K.) โดย Penny Horwood

รายงาน ISC2 2025 Cybersecurity Workforce Study ซึ่งสำรวจผู้เชี่ยวชาญกว่า 16,000 คนจากทั่วโลก เปิดเผยว่า ในขณะที่การลดงบประมาณและการปลดพนักงานเริ่มคลี่คลายลง แต่ 33% ขององค์กรยังคงมีบุคลากรไม่เพียงพอ และ 29% ไม่สามารถจ่ายค่าจ้างสำหรับทักษะที่จำเป็นได้ โดยมี 72% ที่ระบุว่าความเสี่ยงของการถูกโจมตีเพิ่มขึ้น

การขาดแคลนทักษะ กลายเป็นข้อกังวลสูงสุดแทนที่จะเป็นจำนวนพนักงาน โดย 88% รายงานเหตุการณ์ด้านความปลอดภัยที่เกิดขึ้นเนื่องจากช่องว่างทางทักษะ การนำ AI มาใช้กำลังเร่งตัวขึ้น โดยมี 28% ที่ได้รวมเครื่องมือ AI เข้ามาใช้แล้ว และ 69% กำลังศึกษาการใช้ AI ซึ่งก่อให้เกิดความต้องการทักษะเฉพาะทางและกลยุทธ์ด้านความมั่นคงทางไซเบอร์

อ่านข่าวเต็มได้ที่: Computing (U.K.) โดย Penny Horwood

วันเสาร์ที่ 29 พฤศจิกายน พ.ศ. 2568

มาเลเซียเตรียมแบนโซเชียลมีเดียสำหรับเด็กอายุต่ำกว่า 16 ปี

social-media
Photo by Alexander Shatov on Unsplash

Fahmi Fadzil รัฐมนตรีว่าการกระทรวงการสื่อสารของมาเลเซีย กล่าวว่า รัฐบาลมีแผนที่จะ ห้ามเด็กอายุต่ำกว่า 16 ปีเปิดบัญชีโซเชียลมีเดีย โดยจะเริ่มตั้งแต่ปีหน้าเป็นต้นไป และกำลังทบทวนกลไกเพื่อนำข้อจำกัดด้านอายุมาใช้บนแพลตฟอร์มโซเชียลมีเดีย

การเคลื่อนไหวนี้เกิดขึ้นในขณะที่ออสเตรเลียกำลังจะปิดบัญชีโซเชียลมีเดียของผู้ใช้ที่อายุต่ำกว่า 16 ปีในเดือนธันวาคมนี้ และฝรั่งเศส สเปน อิตาลี เดนมาร์ก และกรีซ ก็กำลังร่วมกันทดสอบต้นแบบของแอปยืนยันอายุด้วย

อ่านข่าวเต็มได้ที่: Reuters โดย Rozanna Latiff และ Stanley Widianto

วันอังคารที่ 21 ตุลาคม พ.ศ. 2568

สหภาพยุโรปอัปเดตแอป Blueprint สำหรับการยืนยันอายุ

teen-phone
ภาพจาก Biometric Update โดย Masha Borak

พิมพ์เขียวแอปพลิเคชันยืนยันอายุฉบับที่สองที่เผยแพร่โดยคณะกรรมาธิการยุโรป เรียกร้องให้มีการรวม พาสปอร์ตและบัตรประจำตัวประชาชน และ eID เข้าเป็นวิธีการเริ่มต้นใช้งาน (onboarding methods) สำหรับการสร้างหลักฐานยืนยันอายุ และสนับสนุนการใช้งาน Digital Credentials API

พิมพ์เขียวนี้ซึ่งเปิดตัวในเดือนกรกฎาคม สามารถทำงานร่วมกันได้อย่างสมบูรณ์กับ EU Digital Identity Wallets ที่กำลังจะเปิดตัว และจะทำหน้าที่เป็นรากฐานสำคัญสำหรับการพัฒนาเครื่องมือในระดับท้องถิ่นโดยประเทศสมาชิกสหภาพยุโรปและบริษัทในภาคเอกชนต่อไป

อ่านข่าวเต็มได้ที่: Biometric Update โดย Masha Borak

วันศุกร์ที่ 5 กันยายน พ.ศ. 2568

ChatGPT จะถูกควบคุมโดยผู้ปกครองหลังจากวัยรุ่นฆ่าตัวตาย

chatGPT
Photo by Levart_Photographer on Unsplash

OpenAI กล่าวว่าจะเปิดตัวฟีเจอร์ควบคุมโดยผู้ปกครองสำหรับ ChatGPT ภายในเดือนหน้า หลังจากมีคดีความที่กล่าวหาว่าแชทบอทดังกล่าวมีส่วนทำให้วัยรุ่นในแคลิฟอร์เนียปกปิดความคิดฆ่าตัวตายก่อนที่จะจบชีวิตลง

เครื่องมือใหม่นี้จะช่วยให้ผู้ปกครองสามารถเชื่อมโยงบัญชี จำกัดการใช้งาน และรับการแจ้งเตือนหากระบบตรวจพบสัญญาณของความทุกข์ใจอย่างรุนแรง การเคลื่อนไหวครั้งนี้เกิดขึ้นท่ามกลางความกังวลที่เพิ่มขึ้นเกี่ยวกับการพึ่งพาแชทบอท AI ของวัยรุ่น และสะท้อนให้เห็นถึงข้อถกเถียงในอดีตเกี่ยวกับอันตรายของโซเชียลมีเดีย

อ่านข่าวเต็มได้ที่: The Washington Post โดย Gerrit De Vynck

วันศุกร์ที่ 29 สิงหาคม พ.ศ. 2568

AI ยังไม่พร้อมที่จะเป็นนักเขียนโปรแกรมตัวจริง

programmer
ภาพจาก IEEE Spectrum โดย Rina Diane Caballar

แม้เครื่องมือเขียนโค้ด AI จะก้าวหน้าอย่างรวดเร็ว ทั้งในด้านการสร้างโค้ด การแก้ไขข้อผิดพลาด และการปรับปรุงเอกสาร แต่ทีมนักวิจัย Cornell University, Massachusetts Institute of Technology, Stanford University, และ University of California, Berkeley ได้นำเสนอหลักฐานที่แสดงให้เห็นว่า AI ยังไม่พร้อมที่จะทำหน้าที่เป็นนักเขียนโค้ดอิสระอย่างสมบูรณ์

โมเดล AI ในปัจจุบันยังคงประสบปัญหาในการจัดการกับโค้ดขนาดใหญ่ ความซับซ้อนเชิงตรรกะ การวางแผนระยะยาว และงานดีบักที่ต้องใช้ความเข้าใจเชิงบริบทอย่างลึกซึ้ง ข้อผิดพลาดที่ได้รับการบันทึกไว้ได้แก่ การสร้างข้อผิดพลาดแบบภาพหลอน (hallucinated errors) และการแก้ไขที่ผิดพลาด

อ่านข่าวเต็มได้ที่: IEEE Spectrum โดย Rina Diane Caballar

วันพฤหัสบดีที่ 28 สิงหาคม พ.ศ. 2568

ผู้ปกครองกล่าวหาว่า ChatGPT เป็นผู้รับผิดชอบต่อการฆ่าตัวตายของลูกชายของพวกเขา

open-AI-logo
Photo by Andrew Neel on Unsplash


พ่อแม่ของ Adam Raine เด็กชายวัย 16 ปีที่เสียชีวิตจากการฆ่าตัวตาย กำลังฟ้องร้อง OpenAI โดยกล่าวหาว่า ChatGPT มีส่วนทำให้ลูกชายของพวกเขาเสียชีวิตจากการให้ข้อมูลเกี่ยวกับวิธีการฆ่าตัวตาย คดีความที่ยื่นฟ้องเมื่อวันอังคารนี้ ถือเป็นคดีแรกที่กล่าวหา OpenAI โดยตรงในข้อหาทำให้เสียชีวิตโดยมิชอบด้วยกฎหมาย

Adam ซึ่งกำลังเผชิญกับความทุกข์จากการสูญเสียคนใกล้ชิด ปัญหาสุขภาพ และความล้มเหลวทางสังคม เริ่มใช้ ChatGPT เพื่อทำงานโรงเรียนในตอนแรก แต่ต่อมาได้ระบายปัญหาด้านสุขภาพจิตกับแชทบอทดังกล่าว คดีความอ้างว่าแชทบอทได้ส่งเสริมความคิดที่เป็นอันตรายแทนที่จะให้การป้องกันที่เหมาะสม “เขาจะยังคงอยู่ที่นี่ ถ้าไม่มี ChatGPT” Matt Raine ผู้เป็นพ่อกล่าว

อ่านข่าวเต็มได้ที่: Time โดย Solcyré Burga

วันเสาร์ที่ 16 สิงหาคม พ.ศ. 2568

สร้างวิดีโอไทม์แลปส์ได้ง่าย ๆ

part-of-timelapse-video
ภาพจาก Cornell Chronicle โดย Tom Fleischman

นักวิจัยจาก Cornell University ได้พัฒนาซอฟต์แวร์ที่เปลี่ยนภาพถ่ายจากสมาร์ทโฟนทั่วไปให้กลายเป็นวิดีโอไทม์แลปส์แบบพาโนรามาได้โดยไม่ต้องใช้ขาตั้งกล้อง

โครงการนี้นำโดย Abe Davis ซึ่งเริ่มต้นขึ้นในช่วงที่ทั่วโลกมีการล็อกดาวน์จากโควิด-19 โดยมีการรวบรวมภาพถ่ายหลายพันภาพจากสถานที่ในชีวิตประจำวัน 

ทีมวิจัยได้สร้างเทคนิคการจัดเรียงภาพแบบใหม่เพื่อจัดการกับภาพที่ไม่เรียงลำดับเวลาหลายพันภาพ และใช้เทคนิคที่เรียกว่า "time splatting" ซึ่งใช้ข้อมูล GPS ตำแหน่งดวงอาทิตย์ และข้อมูลสภาพอากาศเพื่อสร้างภาพฉากขึ้นใหม่และยังสามารถปรับแสงได้อีกด้วย 

ดูวีดีโอได้จากลิงก์ข่าวเต็มครับ

อ่านข่าวเต็มได้ที่: Cornell Chronicle โดย Tom Fleischman

วันจันทร์ที่ 11 สิงหาคม พ.ศ. 2568

NIST ร่างแนวทางที่มีจุดมุ่งหมายที่จะปรับปรุงความปลอดภัยในการพัฒนาซอฟต์แวร์

NIST-SSDF
ภาพจาก NIST

National Cybersecurity Center of Excellence (NCCoE) ของ National Institute of Standards and Technology หรือ NIST ร่วมกับองค์กรสมาชิก 14 แห่งในกลุ่ม Software Supply Chain and DevOps Security Practices Consortium กำลังพัฒนาแนวทางสำหรับการพัฒนาซอฟต์แวร์ที่ปลอดภัย เพื่อตอบสนองต่อคำสั่งพิเศษของทำเนียบขาวฉบับที่ 14306

ร่างแนวทางดังกล่าวคือ NIST Special Publication 1800-44 ซึ่งได้สรุปแนวทางปฏิบัติระดับสูงของ DevSecOps และมีเจตนาที่จะต่อยอดจาก Secure Software Development Framework (SSDF) โดยขณะนี้เปิดรับความคิดเห็นจากสาธารณะเกี่ยวกับแนวทางดังกล่าวจนถึงวันที่ 12 กันยายน 2025

อ่านข่าวเต็มได้ที่: NIST

วันอาทิตย์ที่ 10 สิงหาคม พ.ศ. 2568

Tesla ถูกตัดสินว่ามีความผิดบางส่วนในเหตุที่รถขับเคลื่อนอัตโนมัติชนกันจนมีผู้เสียชีวิต

Tesla
ภาพจาก BBC News โดย  Lily Jamali

เมื่อวันที่ 1 สิงหาคมที่ผ่านมา คณะลูกขุนในรัฐฟลอริดาได้ตัดสินว่า ข้อผิดพลาดในซอฟต์แวร์ขับเคลื่อนตัวเองของ Tesla มีส่วนทำให้เกิดอุบัติเหตุในปี 2019 ซึ่งเป็นเหตุให้หญิงสาววัย 22 ปีเสียชีวิต และอีกคนได้รับบาดเจ็บสาหัส

คำตัดสินนี้ถือเป็นความพ่ายแพ้ครั้งสำคัญของบริษัทรถยนต์รายนี้ ซึ่งกำลังทุ่มเทอนาคตส่วนใหญ่ไปกับการพัฒนารถแท็กซี่ไร้คนขับ หากคำตัดสินนี้ยืนยันตามการอุทธรณ์ Tesla อาจต้องจ่ายค่าเสียหายเชิงลงโทษและค่าชดเชยสูงถึง 243 ล้านดอลลาร์

อ่านข่าวเต็มได้ที่: BBC News โดย  Lily Jamali

วันเสาร์ที่ 9 สิงหาคม พ.ศ. 2568

เกือบครึ่งหนึ่งของโค้ดทั้งหมดที่สร้างโดย AI มีข้อบกพร่องด้านความปลอดภัย

typing-keyboard
ภาพจาก TechRadar โดย Craig Hale

งานวิจัยล่าสุดจาก Veracode ผู้ให้บริการโซลูชันความปลอดภัยแอปพลิเคชัน เปิดเผยว่า 45% ของโค้ดที่สร้างโดย AI มีช่องโหว่ด้านความปลอดภัย โดยยังไม่พบการปรับปรุงที่ชัดเจนในจุดนี้ จากโมเดลภาษาขนาดใหญ่ (Large Language Model) หรือ LLM ที่มีขนาดใหญ่ขึ้น หรือใหม่กว่า

จากการวิเคราะห์โมเดลกว่า 100 โมเดลในงานเขียนโค้ด 80 ชิ้น พบว่า โค้ดภาษา Java ได้รับผลกระทบมากที่สุด โดยมีอัตราความล้มเหลวเกิน 70% ตามมาด้วย Python, C# และ JavaScript 

รายงานยังเตือนว่า การพึ่งพาการเขียนโค้ดด้วย AI โดยไม่มีการกำหนดมาตรการความปลอดภัยที่ชัดเจน ซึ่งเรียกว่า "vibe coding" อาจเพิ่มความเสี่ยงให้สูงขึ้น

อ่านข่าวเต็มได้ที่: TechRadar โดย Craig Hale

วันศุกร์ที่ 8 สิงหาคม พ.ศ. 2568

หนึ่งในห้าของบทความวิทยาการคอมพิวเตอร์อาจมีเนื้อหาที่สร้างจาก AI

chatGPT
ภาพจาก Science โดย Phie Jacobs 

จากการวิเคราะห์บทคัดย่อและบทนำของบทความกว่า 1 ล้านชิ้นในวงกว้าง โดยนักวิจัยจาก Stanford University และ University of California, Santa Barbara พบว่า เกือบหนึ่งในห้าของบทความวิทยาการคอมพิวเตอร์ที่ตีพิมพ์ในปี 2024 อาจมีข้อความที่สร้างขึ้นโดย AI

ผลการศึกษาพบว่า ณ เดือนกันยายน 2024 บทความวิทยาการคอมพิวเตอร์ถึง 22.5% แสดงร่องรอยการได้ข้อมูลมาจากโมเดลภาษาขนาดใหญ่ (large language models) เช่น ChatGPT 

นักวิจัยใช้การสร้างตัวแบบทางสถิติเพื่อตรวจจับรูปแบบคำศัพท์ทั่วไปที่เชื่อมโยงกับงานเขียนของ AI

อ่านข่าวเต็มได้ที่: Science โดย Phie Jacobs

วันเสาร์ที่ 26 กรกฎาคม พ.ศ. 2568

นักวิจัยเลี่ยงลายน้ำป้องกัน Deepfake บนรูปภาพที่ถูกสร้างด้วย AI ได้สำเร็จ

U-Of-Waterloo
ภาพจาก  CBC News (Canada) โดย Anja Karadeglija

นักวิจัยจาก University of Waterloo ในประเทศแคนาดา ได้พัฒนาเครื่องมือที่สามารถลบลายน้ำ ที่ระบุว่าเนื้อหานั้นถูกสร้างขึ้นโดย AI ได้อย่างรวดเร็ว เครื่องมือ UnMarker ซึ่งสามารถลบลายน้ำ (watermark) ได้โดยไม่ต้องรู้ข้อมูลเกี่ยวกับระบบที่สร้างลายน้ำนั้นขึ้นมา หรือแม้แต่ข้อมูลเกี่ยวกับตัวลายน้ำเอง

Andre Kassis จาก University of อธิบายว่า "เราแค่ใช้เครื่องมือนี้ และภายในเวลาไม่เกินสองนาที มันก็จะแสดงผลเป็นภาพที่ดูเหมือนภาพต้นฉบับที่มีลายน้ำทุกประการ" แต่ภาพที่ได้จะไม่มีลายน้ำที่บ่งบอกว่าภาพนั้นสร้างโดย AI อีกต่อไป

อ่านข่าวเต็มได้ที่: CBC News (Canada) โดย Anja Karadeglija

วันพุธที่ 23 กรกฎาคม พ.ศ. 2568

การศึกษาเกี่ยวกับ AI Chatbots ช่วยบำบัด เตือนถึงความเสี่ยงและอคติ

Stanford-University-Campus
ภาพจาก UPI โดย Chris Benson

การศึกษาของ Stanford University ที่ประเมินแชทบอทสุขภาพจิตที่ขับเคลื่อนด้วย AI ห้าตัว พบว่าแชทบอทเหล่านี้มีความเสี่ยงด้านความปลอดภัย โดยแสดงให้เห็นถึงอคติและไม่สามารถตอบสนองได้อย่างเหมาะสมในสถานการณ์ที่มีความเสี่ยงสูง

ในการทดลองหนึ่ง แชทบอทมีปฏิกิริยาในเชิงลบต่อภาวะต่าง ๆ เช่น โรคจิตเภท และการติดสุรามากกว่าภาวะซึมเศร้า โมเดลภาษาขนาดใหญ่ (Large Language Model) หรือ LLM รุ่นใหม่กว่าก็แสดงอคติที่คล้ายกัน ซึ่งบ่งชี้ว่าความก้าวหน้าทางเทคนิคยังไม่สามารถลดปัญหานี้ได้

อ่านข่าวเต็มได้ที่: UPI โดย Chris Benson

วันอังคารที่ 22 กรกฎาคม พ.ศ. 2568

ผู้ใช้ Oracle Java เกือบ 3 ใน 4 รายระบุว่าตนได้รับการตรวจสอบในช่วง 3 ปีที่ผ่านมา

oracle-logo
ภาพจาก The Register (U.K.) โดย Lindsay Clark 

ผลสำรวจผู้จัดการสินทรัพย์ด้าน IT กว่า 500 คน ซึ่งดำเนินการโดย Dimensional Research ในนามของ ITAM Forum และ Azul พบว่า 73% ขององค์กรที่ใช้ Oracle Java ถูกตรวจสอบภายในสามปีที่ผ่านมา ส่งผลให้เกือบ 80% ขององค์กรเหล่านี้ย้ายหรือวางแผนที่จะย้ายไปใช้ทางเลือกโอเพ่นซอร์ส

หนึ่งในสี่ของผู้ตอบแบบสอบถามระบุถึงความท้าทายในการติดตามการใช้งานแอปพลิเคชันในการกำหนดค่าซอฟต์แวร์ที่ซับซ้อน โดย 54% ของผู้ตอบแบบสอบถามใช้จ่ายมากกว่า 100,000 ดอลลาร์ต่อปี และ 27% ใช้จ่ายมากกว่า 500,000 ดอลลาร์ต่อปี เพื่อแก้ไขปัญหาการไม่ปฏิบัติตามข้อกำหนดด้านลิขสิทธิ์

อ่านข่าวเต็มได้ที่: The Register (U.K.) โดย Lindsay Clark