แสดงบทความที่มีป้ายกำกับ sarunitnews แสดงบทความทั้งหมด
แสดงบทความที่มีป้ายกำกับ sarunitnews แสดงบทความทั้งหมด

วันเสาร์ที่ 27 ธันวาคม พ.ศ. 2568

Instacart ยุติโปรแกรมกำหนดราคาด้วยอัลกอริทึมแล้ว

instacart-logo
ภาพจาก Associated Press

Instacart บริษัทผู้ให้บริการจัดส่งสินค้า ประกาศยุติการทดสอบระบบตั้งราคาที่แสดงราคาของสินค้าชนิดเดียวกันในร้านค้าเดียวกันแตกต่างกันออกไป ภายหลังจากได้รับกระแสวิพากษ์วิจารณ์จาก Consumer Reports และกลุ่มรณรงค์สิทธิต่างๆ

การทดลองดังกล่าวซึ่งเริ่มขึ้นในปี 2023 ใช้วิธีสุ่มแสดงราคาสินค้าให้สูงขึ้นหรือต่ำลงเล็กน้อยแก่ผู้ซื้อ เพื่อช่วยให้บรรดาร้านค้าปลีกสามารถศึกษาความอ่อนไหวต่อราคา (price sensitivity) ของผู้บริโภค อย่างไรก็ตาม ประเด็นดังกล่าวได้สร้างความกังวลอย่างมากในเรื่องของความยุติธรรมและความโปร่งใสในการให้บริการ

อ่านข่าวเต็มได้ที่: Associated Press

วันจันทร์ที่ 22 ธันวาคม พ.ศ. 2568

ร่างแนวทางปฏิบัติของ NIST: ทบทวนแนวคิดด้านความปลอดภัยทางไซเบอร์สำหรับยุคปัญญาประดิษฐ์

NIST-Cyber-AI-Profile
ภาพจาก NIST

สถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (National Institute of Standards and Technology) ของสหรัฐอเมริกา หรือ NIST ได้เผยแพร่ร่างเบื้องต้นของ Cyber AI Profile เพื่อเปิดรับฟังความคิดเห็นเป็นเวลา 45 วัน โดยหลังจากช่วงเวลาดังกล่าว NIST จะดำเนินการจัดทำร่างฉบับสาธารณะขั้นต้นเพื่อเผยแพร่ในปีหน้า

Cyber AI Profile นี้มุ่งเน้นไปที่การรักษาความปลอดภัยของระบบ AI การเสริมสร้างการป้องกันทางไซเบอร์โดยใช้ AI และการป้องกันการโจมตีทางไซเบอร์ที่ขับเคลื่อนด้วย AI 

โดยเอกสารฉบับนี้มีวัตถุประสงค์เพื่อช่วยเหลือองค์กรต่างๆ ในการใช้ NIST Cybersecurity Framework 2.0 เพื่อให้มั่นใจว่าการนำ AI มาใช้นั้นมีความปลอดภัย

อ่านข่าวเต็มได้ที่: NIST

วันอาทิตย์ที่ 21 ธันวาคม พ.ศ. 2568

อัยการสูงสุดของรัฐต่างๆ ในสหรัฐฯ เรียกร้องให้บริษัทยักษ์ใหญ่ด้าน AI แก้ไขผลลัพธ์ที่ "ผิดเพี้ยน"

judge
ภาพจาก Computerworld 

คณะอัยการสูงสุดของรัฐต่าง ๆ ในสหรัฐอเมริกา กำลังเร่งกระตุ้นให้บริษัทด้าน AI ยักษ์ใหญ่จัดการกับปัญหาการตอบโต้ของแชตบอตที่ก่อให้เกิด "อาการหลงผิด" (Delusional outputs) ที่เป็นอันตราย ภายหลังเกิดเหตุการณ์สะเทือนขวัญด้านสุขภาพจิตที่เชื่อมโยงกับการใช้งาน AI

ในจดหมายเปิดผนึกที่ลงนามโดยอัยการสูงสุด 42 คนจากรัฐและเขตปกครองต่าง ๆ ของสหรัฐฯ เจ้าหน้าที่ได้เตือนบริษัทต่าง ๆ ซึ่งรวมถึง Microsoft, OpenAI, Google และ Anthropic ว่าการเพิกเฉยไม่ดำเนินการแก้ไขอาจนำไปสู่ผลทางกฎหมาย 

โดยในจดหมายเรียกร้องให้มีการวางมาตรการป้องกันที่เข้มงวดขึ้น และกระตุ้นให้มีการตรวจสอบโมเดลภาษาขนาดใหญ่ (Large Language Models) โดยองค์กรอิสระ เพื่อตรวจหาพฤติกรรมที่ทำให้เกิดอาการหลงผิดหรือพฤติกรรมที่ประจบเอาใจผู้ใช้จนเกินไป (Sycophantic behavior)

อ่านข่าวเต็มได้ที่: Computerworld

วันเสาร์ที่ 20 ธันวาคม พ.ศ. 2568

การแฮ็กเผยตัวตนของผู้ประเมินบทความงานประชุมด้านปัญญาประดิษฐ์ขนาดใหญ่

iceberg-paper
ภาพจาก Science โดย Celina Zhao และ Michael Greshko

OpenReview ซึ่งเป็นแพลตฟอร์มที่สนับสนุนระบบการตรวจทานบทความวิชาการแบบปกปิดรายชื่อทั้งสองฝ่าย (Double-blind peer reviews) สำหรับการประชุมด้านวิทยาการคอมพิวเตอร์ทั่วโลก ถูกเจาะระบบเมื่อเดือนพฤศจิกายนที่ผ่านมา ส่งผลให้มีการเปิดเผยตัวตนของผู้ประเมิน (reviewers) นิรนามที่ทำหน้าที่ประเมินบทความวิจัยสำหรับการประชุม International Conference on Learning Representations (ICLR)

OpenReview ตรวจพบและแก้ไขข้อผิดพลาด (Bug) ดังกล่าวได้ภายในหนึ่งชั่วโมงหลังจากได้รับแจ้งเตือนจาก ICLR เมื่อวันที่ 27 พฤศจิกายน อย่างไรก็ตาม เหล่าแฮ็กเกอร์ได้ทำการขูด (scrape) ข้อมูล  และเผยแพร่ข้อมูลของทั้งผู้เขียน และผู้ประเมิน สำหรับบทความวิจัยประมาณ 10,000 ฉบับ ที่จะใช้ในการประชุม ICLR ซึ่งมีกำหนดจัดขึ้นในเดือนเมษายน 2026 ณ กรุง Rio de Janeiro ไปเรียบร้อยแล้ว

อ่านข่าวเต็มได้ที่: Science โดย Celina Zhao และ Michael Greshko

วันศุกร์ที่ 19 ธันวาคม พ.ศ. 2568

ภาษา R กลับมาอีกครั้ง

Rs
ภาพจาก InfoWorld โดย Paul Krill

ภาษา R กลับมาติดอันดับ Top 10 ในดัชนีความนิยมของภาษาโปรแกรมประจำเดือนธันวาคมโดย Tiobe อีกครั้ง โดยรั้งอันดับที่ 10 ด้วยส่วนแบ่งความนิยม 1.96%

แม้ว่าภาษา R จะเคยติดสิบอันดับแรกของดัชนี Tiobe มาก่อน แต่ก็ไม่ได้กลับขึ้นมาให้เห็นเลยในช่วงหลายปีที่ผ่านมา

Paul Jansen ซีอีโอของ Tiobe กล่าวว่า "ภาษาโปรแกรม R เป็นที่รู้จักกันดีว่ามีความเหมาะสมอย่างยิ่งสำหรับเหล่านักสถิติและนักวิทยาศาสตร์ข้อมูล (Data Scientists) และในขณะที่งานด้านสถิติรวมถึงการแสดงข้อมูลขนาดใหญ่ (Large-scale data visualization) มีความสำคัญมากขึ้นเรื่อยๆ ภาษา R จึงได้รับความนิยมกลับคืนมาอีกครั้ง"

อ่านข่าวเต็มได้ที่: InfoWorld โดย Paul Krill

วันจันทร์ที่ 15 ธันวาคม พ.ศ. 2568

คำสั่งบริหารของทรัมป์ห้ามรัฐต่างๆ บังคับใช้กฎระเบียบด้านปัญญาประดิษฐ์ของตนเอง

buildings
Photo by Toomas Tartes on Unsplash

คำสั่งฝ่ายบริหารที่ลงนามเมื่อวันที่ 11 ธันวาคม โดยประธานาธิบดี Donald Trump แห่งสหรัฐฯ ได้ระงับไม่ให้มลรัฐต่างๆ บังคับใช้กฎระเบียบด้าน AI ของตนเอง และเรียกร้องให้มีการจัดตั้ง "กรอบการทำงานระดับชาติเพียงหนึ่งเดียว (single national framework)" สำหรับ AI

ทางด้าน David Sacks ผู้รับผิดชอบด้านคริปโทและ AI ประจำทำเนียบขาว กล่าวว่าคณะทำงานไม่มีแผนที่จะคัดค้านกฎหมาย AI ของมลรัฐทุกฉบับ และจะไม่มุ่งเป้าจัดการกับกฎระเบียบระดับรัฐที่เกี่ยวข้องกับความปลอดภัยของเด็กและ AI

อ่านข่าวเต็มได้ที่: CNN โดย  Samantha Waldenberg, Hadas Gold และ Clare Duffy

วันอาทิตย์ที่ 14 ธันวาคม พ.ศ. 2568

ผลการศึกษาชี้ให้เห็นว่า แนวปฏิบัติด้านความปลอดภัยของบริษัท AI ไม่เป็นไปตามมาตรฐานสากล

ืOpen-AI
ภาพจาก Reuters โดย Zaheer Kachwala และ Arnav Mishra

ดัชนีความปลอดภัย AI (AI safety index) ฉบับล่าสุดจากองค์กรไม่แสวงหาผลกำไร Future of Life Institute พบว่าบริษัท AI ชั้นนำอย่าง Anthropic, OpenAI, xAI และ Meta ไม่ผ่านเกณฑ์มาตรฐานความปลอดภัยระดับโลกที่กำลังเกิดขึ้นใหม่

ผลการประเมินความปลอดภัยระบุว่า ไม่มีบริษัทใดเลยที่มีกลยุทธ์ที่แข็งแกร่งเพียงพอในการควบคุมระบบที่มีความฉลาดเหนือมนุษย์ (Superintelligent systems) แม้ว่าบริษัทเหล่านี้จะกำลังเร่งพัฒนาระบบดังกล่าวกันอย่างเต็มที่ก็ตาม

Max Tegmark ประธานของ Future of Life ได้ตั้งข้อสังเกตว่า "บริษัท AI ในสหรัฐฯ ยังคงถูกกำกับดูแลน้อยกว่าร้านอาหารเสียอีก และพวกเขายังคงเดินหน้าวิ่งเต้น (Lobbying) เพื่อต่อต้านมาตรฐานความปลอดภัยที่มีผลผูกพันทางกฎหมาย"

อ่านข่าวเต็มได้ที่: Reuters โดย Zaheer Kachwala และ Arnav Mishra

วันเสาร์ที่ 13 ธันวาคม พ.ศ. 2568

นักวิจัยพบว่าการโจมตีด้วยแรนซัมแวร์บนไฮเปอร์ไวเซอร์เพิ่มขึ้น

OS
Photo by Claudio Schwarz on Unsplash

นักวิจัยจากบริษัทซอฟต์แวร์ความปลอดภัย Huntress รายงานว่า Ransomware ที่มุ่งโจมตี Hypervisor มีสัดส่วนเพิ่มขึ้นจาก 3% ของการเข้ารหัสที่เป็นอันตรายทั้งหมดในช่วงครึ่งแรกของปี 2025 พุ่งสูงขึ้นเป็น 25% ในช่วงครึ่งหลังของปี โดยระบุว่ากลุ่ม Akira ransomware คือผู้อยู่เบื้องหลังกิจกรรมส่วนใหญ่นี้

นักวิจัยกล่าวว่า สาเหตุที่ผู้โจมตีหันมามุ่งเป้าไปที่ Hypervisors นั้น เป็นเพราะระบบเหล่านี้ยังขาดการป้องกันที่เพียงพอ

อ่านข่าวเต็มได้ที่: The Register โดย Simon Sharwood

วันศุกร์ที่ 12 ธันวาคม พ.ศ. 2568

'เจ้าพ่อแห่งปัญญาประดิษฐ์' กล่าวว่า นักเรียนยังคงควรเรียนการเขียนโค้ดต่อไป

Geoffrey-Hinton
ภาพจาก Business Insider โดย Brent D. Griffiths

แม้ว่า AI จะมีความสามารถในการเขียนโค้ดได้ดีขึ้นเรื่อยๆ แต่ Geoffrey Hinton ผู้ได้รับรางวัล ACM A.M. Turing Award ได้กล่าวในการให้สัมภาษณ์กับ Business Insider ว่า ปริญญาสาขาวิทยาการคอมพิวเตอร์ (Computer Science) และการเรียนรู้ที่จะเขียนโค้ดนั้นยังคงมีคุณค่า

สำหรับผู้ที่ต้องการก้าวขึ้นเป็นนักวิจัยหรือวิศวกร AI ระดับสูง Hinton แนะนำให้มุ่งเน้นไปที่การคิดเชิงวิพากษ์ (Critical thinking) แทนที่จะเน้นทักษะเฉพาะเจาะจงที่อาจถูกแทนที่โดย AI ได้

Hinton ยังกล่าวอีกว่า ทักษะบางอย่างจะมีคุณค่าเสมอ เช่น คณิตศาสตร์ (Math), สถิติ (Statistics), ทฤษฎีความน่าจะเป็น (Probability theory) และพีชคณิตเชิงเส้น (Linear algebra)

อ่านข่าวเต็มได้ที่: Business Insider โดย Brent D. Griffiths

วันอังคารที่ 9 ธันวาคม พ.ศ. 2568

Microsoft ปิดช่องโหว่ไฟล์ทางลัดของ Windows อย่างเงียบ ๆ หลังจากถูกจารกรรมข้อมูลมานานหลายปี

Microsoft
Photo by Simon Ray on Unsplash

Microsoft ได้แก้ไขช่องโหว่ที่สำคัญในไฟล์ทางลัด (shortcut) ของ Windows ซึ่งนักวิจัยจาก Trend Micro ระบุว่าถูกใช้ประโยชน์โดยกลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐบาล 11 กลุ่ม นับตั้งแต่ปี 2017 ซึ่งรวมถึงกลุ่มจากเกาหลีเหนือ อิหร่าน รัสเซีย และจีน 

ช่องโหว่ดังกล่าวทำให้ไฟล์ทางลัด .lnk ที่เป็นอันตรายสามารถซ่อนเพย์โหลด (payloads) ที่มุ่งร้ายได้ โดยการเติมอาร์กิวเมนต์บรรทัดคำสั่ง (command-line arguments) ที่เป็นอันตรายด้วยช่องว่าง (whitespace) หรืออักขระที่ไม่สามารถพิมพ์ได้ (non-printing characters) 

ด้วยการแก้ไขนี้ คำสั่งทั้งหมดจะถูกแสดงในกล่องโต้ตอบ "Properties" ของ Windows

อ่านข่าวเต็มได้ที่: The Register โดย Carly Page

วันจันทร์ที่ 8 ธันวาคม พ.ศ. 2568

สวิตเซอร์แลนด์เตือนไม่ให้ใช้ Microsoft 365 และบริการคลาวด์อื่นๆ เนื่องจากขาดการเข้ารหัสที่เหมาะสม

icons
ภาพจาก TechRadar โดย Craig Hale

Privatim ซึ่งเป็นที่ประชุมของเจ้าหน้าที่คุ้มครองข้อมูลของสวิตเซอร์แลนด์ (Conference of Swiss Data Protection Officers) ได้ออกคำเตือนเกี่ยวกับการใช้บริการ Microsoft 365, Amazon's AWS, และ Google Cloud เนื่องจากบริการเหล่านี้ ขาดการเข้ารหัสแบบ End-to-End ที่แท้จริง (true end-to-end encryption)

Privatim ระบุว่า ข้อมูลที่มีความอ่อนไหวและเป็นความลับสูงไม่ควรถูกจัดเก็บไว้กับผู้ให้บริการ SaaS ระดับนานาชาติ เว้นแต่ว่าข้อมูลเหล่านั้นจะได้รับการเข้ารหัสโดยรัฐบาล และผู้ให้บริการถูกห้ามไม่ให้เข้าถึงคีย์ (Keys) การเข้ารหัส

ในทางตรงกันข้าม Proton ของสวิตเซอร์แลนด์ ใช้โครงสร้างพื้นฐานของสวิตเซอร์แลนด์และสหภาพยุโรป (EU) รวมถึงมีการเข้ารหัสฝั่งไคลเอนต์ (client-side encryption)

อ่านข่าวเต็มได้ที่: TechRadar โดย Craig Hale

วันอาทิตย์ที่ 7 ธันวาคม พ.ศ. 2568

รายงานบุคลากรด้านความมั่นคงทางไซเบอร์พบว่าปัญหาการขาดแคลนบุคลากรที่มีทักษะกำลังเลวร้ายลง

cyber-security
ภาพจาก Computing (U.K.) โดย Penny Horwood

รายงาน ISC2 2025 Cybersecurity Workforce Study ซึ่งสำรวจผู้เชี่ยวชาญกว่า 16,000 คนจากทั่วโลก เปิดเผยว่า ในขณะที่การลดงบประมาณและการปลดพนักงานเริ่มคลี่คลายลง แต่ 33% ขององค์กรยังคงมีบุคลากรไม่เพียงพอ และ 29% ไม่สามารถจ่ายค่าจ้างสำหรับทักษะที่จำเป็นได้ โดยมี 72% ที่ระบุว่าความเสี่ยงของการถูกโจมตีเพิ่มขึ้น

การขาดแคลนทักษะ กลายเป็นข้อกังวลสูงสุดแทนที่จะเป็นจำนวนพนักงาน โดย 88% รายงานเหตุการณ์ด้านความปลอดภัยที่เกิดขึ้นเนื่องจากช่องว่างทางทักษะ การนำ AI มาใช้กำลังเร่งตัวขึ้น โดยมี 28% ที่ได้รวมเครื่องมือ AI เข้ามาใช้แล้ว และ 69% กำลังศึกษาการใช้ AI ซึ่งก่อให้เกิดความต้องการทักษะเฉพาะทางและกลยุทธ์ด้านความมั่นคงทางไซเบอร์

อ่านข่าวเต็มได้ที่: Computing (U.K.) โดย Penny Horwood

วันเสาร์ที่ 29 พฤศจิกายน พ.ศ. 2568

มาเลเซียเตรียมแบนโซเชียลมีเดียสำหรับเด็กอายุต่ำกว่า 16 ปี

social-media
Photo by Alexander Shatov on Unsplash

Fahmi Fadzil รัฐมนตรีว่าการกระทรวงการสื่อสารของมาเลเซีย กล่าวว่า รัฐบาลมีแผนที่จะ ห้ามเด็กอายุต่ำกว่า 16 ปีเปิดบัญชีโซเชียลมีเดีย โดยจะเริ่มตั้งแต่ปีหน้าเป็นต้นไป และกำลังทบทวนกลไกเพื่อนำข้อจำกัดด้านอายุมาใช้บนแพลตฟอร์มโซเชียลมีเดีย

การเคลื่อนไหวนี้เกิดขึ้นในขณะที่ออสเตรเลียกำลังจะปิดบัญชีโซเชียลมีเดียของผู้ใช้ที่อายุต่ำกว่า 16 ปีในเดือนธันวาคมนี้ และฝรั่งเศส สเปน อิตาลี เดนมาร์ก และกรีซ ก็กำลังร่วมกันทดสอบต้นแบบของแอปยืนยันอายุด้วย

อ่านข่าวเต็มได้ที่: Reuters โดย Rozanna Latiff และ Stanley Widianto

วันอังคารที่ 21 ตุลาคม พ.ศ. 2568

สหภาพยุโรปอัปเดตแอป Blueprint สำหรับการยืนยันอายุ

teen-phone
ภาพจาก Biometric Update โดย Masha Borak

พิมพ์เขียวแอปพลิเคชันยืนยันอายุฉบับที่สองที่เผยแพร่โดยคณะกรรมาธิการยุโรป เรียกร้องให้มีการรวม พาสปอร์ตและบัตรประจำตัวประชาชน และ eID เข้าเป็นวิธีการเริ่มต้นใช้งาน (onboarding methods) สำหรับการสร้างหลักฐานยืนยันอายุ และสนับสนุนการใช้งาน Digital Credentials API

พิมพ์เขียวนี้ซึ่งเปิดตัวในเดือนกรกฎาคม สามารถทำงานร่วมกันได้อย่างสมบูรณ์กับ EU Digital Identity Wallets ที่กำลังจะเปิดตัว และจะทำหน้าที่เป็นรากฐานสำคัญสำหรับการพัฒนาเครื่องมือในระดับท้องถิ่นโดยประเทศสมาชิกสหภาพยุโรปและบริษัทในภาคเอกชนต่อไป

อ่านข่าวเต็มได้ที่: Biometric Update โดย Masha Borak

วันศุกร์ที่ 5 กันยายน พ.ศ. 2568

ChatGPT จะถูกควบคุมโดยผู้ปกครองหลังจากวัยรุ่นฆ่าตัวตาย

chatGPT
Photo by Levart_Photographer on Unsplash

OpenAI กล่าวว่าจะเปิดตัวฟีเจอร์ควบคุมโดยผู้ปกครองสำหรับ ChatGPT ภายในเดือนหน้า หลังจากมีคดีความที่กล่าวหาว่าแชทบอทดังกล่าวมีส่วนทำให้วัยรุ่นในแคลิฟอร์เนียปกปิดความคิดฆ่าตัวตายก่อนที่จะจบชีวิตลง

เครื่องมือใหม่นี้จะช่วยให้ผู้ปกครองสามารถเชื่อมโยงบัญชี จำกัดการใช้งาน และรับการแจ้งเตือนหากระบบตรวจพบสัญญาณของความทุกข์ใจอย่างรุนแรง การเคลื่อนไหวครั้งนี้เกิดขึ้นท่ามกลางความกังวลที่เพิ่มขึ้นเกี่ยวกับการพึ่งพาแชทบอท AI ของวัยรุ่น และสะท้อนให้เห็นถึงข้อถกเถียงในอดีตเกี่ยวกับอันตรายของโซเชียลมีเดีย

อ่านข่าวเต็มได้ที่: The Washington Post โดย Gerrit De Vynck

วันศุกร์ที่ 29 สิงหาคม พ.ศ. 2568

AI ยังไม่พร้อมที่จะเป็นนักเขียนโปรแกรมตัวจริง

programmer
ภาพจาก IEEE Spectrum โดย Rina Diane Caballar

แม้เครื่องมือเขียนโค้ด AI จะก้าวหน้าอย่างรวดเร็ว ทั้งในด้านการสร้างโค้ด การแก้ไขข้อผิดพลาด และการปรับปรุงเอกสาร แต่ทีมนักวิจัย Cornell University, Massachusetts Institute of Technology, Stanford University, และ University of California, Berkeley ได้นำเสนอหลักฐานที่แสดงให้เห็นว่า AI ยังไม่พร้อมที่จะทำหน้าที่เป็นนักเขียนโค้ดอิสระอย่างสมบูรณ์

โมเดล AI ในปัจจุบันยังคงประสบปัญหาในการจัดการกับโค้ดขนาดใหญ่ ความซับซ้อนเชิงตรรกะ การวางแผนระยะยาว และงานดีบักที่ต้องใช้ความเข้าใจเชิงบริบทอย่างลึกซึ้ง ข้อผิดพลาดที่ได้รับการบันทึกไว้ได้แก่ การสร้างข้อผิดพลาดแบบภาพหลอน (hallucinated errors) และการแก้ไขที่ผิดพลาด

อ่านข่าวเต็มได้ที่: IEEE Spectrum โดย Rina Diane Caballar

วันพฤหัสบดีที่ 28 สิงหาคม พ.ศ. 2568

ผู้ปกครองกล่าวหาว่า ChatGPT เป็นผู้รับผิดชอบต่อการฆ่าตัวตายของลูกชายของพวกเขา

open-AI-logo
Photo by Andrew Neel on Unsplash


พ่อแม่ของ Adam Raine เด็กชายวัย 16 ปีที่เสียชีวิตจากการฆ่าตัวตาย กำลังฟ้องร้อง OpenAI โดยกล่าวหาว่า ChatGPT มีส่วนทำให้ลูกชายของพวกเขาเสียชีวิตจากการให้ข้อมูลเกี่ยวกับวิธีการฆ่าตัวตาย คดีความที่ยื่นฟ้องเมื่อวันอังคารนี้ ถือเป็นคดีแรกที่กล่าวหา OpenAI โดยตรงในข้อหาทำให้เสียชีวิตโดยมิชอบด้วยกฎหมาย

Adam ซึ่งกำลังเผชิญกับความทุกข์จากการสูญเสียคนใกล้ชิด ปัญหาสุขภาพ และความล้มเหลวทางสังคม เริ่มใช้ ChatGPT เพื่อทำงานโรงเรียนในตอนแรก แต่ต่อมาได้ระบายปัญหาด้านสุขภาพจิตกับแชทบอทดังกล่าว คดีความอ้างว่าแชทบอทได้ส่งเสริมความคิดที่เป็นอันตรายแทนที่จะให้การป้องกันที่เหมาะสม “เขาจะยังคงอยู่ที่นี่ ถ้าไม่มี ChatGPT” Matt Raine ผู้เป็นพ่อกล่าว

อ่านข่าวเต็มได้ที่: Time โดย Solcyré Burga

วันเสาร์ที่ 16 สิงหาคม พ.ศ. 2568

สร้างวิดีโอไทม์แลปส์ได้ง่าย ๆ

part-of-timelapse-video
ภาพจาก Cornell Chronicle โดย Tom Fleischman

นักวิจัยจาก Cornell University ได้พัฒนาซอฟต์แวร์ที่เปลี่ยนภาพถ่ายจากสมาร์ทโฟนทั่วไปให้กลายเป็นวิดีโอไทม์แลปส์แบบพาโนรามาได้โดยไม่ต้องใช้ขาตั้งกล้อง

โครงการนี้นำโดย Abe Davis ซึ่งเริ่มต้นขึ้นในช่วงที่ทั่วโลกมีการล็อกดาวน์จากโควิด-19 โดยมีการรวบรวมภาพถ่ายหลายพันภาพจากสถานที่ในชีวิตประจำวัน 

ทีมวิจัยได้สร้างเทคนิคการจัดเรียงภาพแบบใหม่เพื่อจัดการกับภาพที่ไม่เรียงลำดับเวลาหลายพันภาพ และใช้เทคนิคที่เรียกว่า "time splatting" ซึ่งใช้ข้อมูล GPS ตำแหน่งดวงอาทิตย์ และข้อมูลสภาพอากาศเพื่อสร้างภาพฉากขึ้นใหม่และยังสามารถปรับแสงได้อีกด้วย 

ดูวีดีโอได้จากลิงก์ข่าวเต็มครับ

อ่านข่าวเต็มได้ที่: Cornell Chronicle โดย Tom Fleischman

วันจันทร์ที่ 11 สิงหาคม พ.ศ. 2568

NIST ร่างแนวทางที่มีจุดมุ่งหมายที่จะปรับปรุงความปลอดภัยในการพัฒนาซอฟต์แวร์

NIST-SSDF
ภาพจาก NIST

National Cybersecurity Center of Excellence (NCCoE) ของ National Institute of Standards and Technology หรือ NIST ร่วมกับองค์กรสมาชิก 14 แห่งในกลุ่ม Software Supply Chain and DevOps Security Practices Consortium กำลังพัฒนาแนวทางสำหรับการพัฒนาซอฟต์แวร์ที่ปลอดภัย เพื่อตอบสนองต่อคำสั่งพิเศษของทำเนียบขาวฉบับที่ 14306

ร่างแนวทางดังกล่าวคือ NIST Special Publication 1800-44 ซึ่งได้สรุปแนวทางปฏิบัติระดับสูงของ DevSecOps และมีเจตนาที่จะต่อยอดจาก Secure Software Development Framework (SSDF) โดยขณะนี้เปิดรับความคิดเห็นจากสาธารณะเกี่ยวกับแนวทางดังกล่าวจนถึงวันที่ 12 กันยายน 2025

อ่านข่าวเต็มได้ที่: NIST

วันอาทิตย์ที่ 10 สิงหาคม พ.ศ. 2568

Tesla ถูกตัดสินว่ามีความผิดบางส่วนในเหตุที่รถขับเคลื่อนอัตโนมัติชนกันจนมีผู้เสียชีวิต

Tesla
ภาพจาก BBC News โดย  Lily Jamali

เมื่อวันที่ 1 สิงหาคมที่ผ่านมา คณะลูกขุนในรัฐฟลอริดาได้ตัดสินว่า ข้อผิดพลาดในซอฟต์แวร์ขับเคลื่อนตัวเองของ Tesla มีส่วนทำให้เกิดอุบัติเหตุในปี 2019 ซึ่งเป็นเหตุให้หญิงสาววัย 22 ปีเสียชีวิต และอีกคนได้รับบาดเจ็บสาหัส

คำตัดสินนี้ถือเป็นความพ่ายแพ้ครั้งสำคัญของบริษัทรถยนต์รายนี้ ซึ่งกำลังทุ่มเทอนาคตส่วนใหญ่ไปกับการพัฒนารถแท็กซี่ไร้คนขับ หากคำตัดสินนี้ยืนยันตามการอุทธรณ์ Tesla อาจต้องจ่ายค่าเสียหายเชิงลงโทษและค่าชดเชยสูงถึง 243 ล้านดอลลาร์

อ่านข่าวเต็มได้ที่: BBC News โดย  Lily Jamali