วันจันทร์ที่ 21 สิงหาคม พ.ศ. 2566

นักวิจัยสาธิตโหมดเครื่องบินปลอมที่หลอกผู้ใช้ iPhone

iphones
ภาพจาก Computer Weekly

นักวิจัยของ Jamf Threat Labs สาธิตสายโซ่การทำงานที่ช่วยให้ผู้โจมตีสามารถใช้ 'โหมดเครื่องบิน' เทียมเพื่อเชื่อมต่อกับอุปกรณ์ที่ผู้ใช้เชื่อว่าออฟไลน์อยู่

นักวิจัยสร้างโหมดเครื่องบินปลอมโดยระบุสตริงเฉพาะในบันทึกคอนโซลของอุปกรณ์ "#N การตั้งค่าโหมดเครื่องบินของผู้ใช้เปลี่ยนจาก kFalse เป็น KTrue" การเข้าถึงรหัสของอุปกรณ์ และแทนที่ฟังก์ชันด้วยฟังก์ชันว่างหรือ "ไม่ทำอะไรเลย"

พวกเขายังเข้าถึงส่วนติดต่อผู้ใช้เพื่อเพิ่มโค้ดเล็ก ๆ เพื่อหรี่ไอคอนการเชื่อมต่อมือถือและไฮไลต์ไอคอนโหมดเครื่องบิน จากนั้นใช้ประโยชน์จาก CommCentre เพื่อบล็อกการเข้าถึงข้อมูลมือถือสำหรับแอพบางตัว ผู้ใช้จึงได้รับการแจ้งเตือน "ปิดโหมดเครื่องบิน" นักวิจัยเชื่อว่าเทคนิคนี้น่าจะใช้ในการโจมตีเป้าหมายได้มากที่สุด

อ่านข่าวเต็มได้ที่: Computer Weekly

วันอาทิตย์ที่ 20 สิงหาคม พ.ศ. 2566

นักวิจัยใช้ระบบคลาวด์เพื่อจำลองซูเปอร์คอมพิวเตอร์สำหรับการศึกษาโรคหัวใจ

Google-cloud
ภาพจาก Reuters

 Petros Koumoutsakos จาก Harvard University และเพื่อนร่วมงานได้โคลนซูเปอร์คอมพิวเตอร์สำหรับการศึกษาโรคหัวใจโดยใช้แพลตฟอร์มคลาวด์ของ Google

นักวิจัยได้จำลองการรักษาโดยมีเป้าหมายที่ก้อนเลือดและเซลล์เนื้องอกในระบบไหลเวียนโลหิตของมนุษย์ Koumoutsakos กล่าวว่าทีมของเขาสามารถเข้าถึงซูเปอร์คอมพิวเตอร์เต็มรูปแบบเพื่อเรียกใช้การจำลองหนึ่งรายการเท่านั้น ทีมงานต้องการการเข้าถึงซูเปอร์คอมพิวเตอร์เพิ่มเติมเพื่อเพิ่มประสิทธิภาพ 

นักวิทยาศาสตร์คนอื่นๆ สามารถใช้คลาวด์สาธารณะเพื่อหาทรัพยากรซูเปอร์คอมพิวติ้งเพิ่มเติม เช่นเดียวกับที่ Koumoutsakos ทำ เพื่อหลีกเลี่ยงปัญหาการขาดแคลนทรัพยากรคอมพิวเตอร์และเร่งการวิจัยของพวกเขา

อ่านข่าวเต็มได้ที่: Reuters

วันเสาร์ที่ 19 สิงหาคม พ.ศ. 2566

การสอบแบบกระดาษ การแบน chatbot: การมอบหมายงานพิสูจน์ว่าไม่ได้มาจาก chatGPT

chatGPT
Photo by Jonathan Kemper on Unsplash

การลอกเลียนผลงานผ่าน ChatGPT และแชทบ็อตปัญญาประดิษฐ์อื่น ๆ แพร่หลายในวิทยาเขตของวิทยาลัย และนักการศึกษาในสาขาต่าง ๆ รวมถึงวิทยาการคอมพิวเตอร์ กำลังพิจารณาวิธีป้องกันไม่ให้ใช้เครื่องมือเพื่อทำข้อสอบและงานที่มอบหมาย

บางที่เปลี่ยนจากการทดสอบแบบดิจิทัลอย่างเดียวกลับไปเป็นข้อสอบกระดาษ บางที่ขอดูแบบร่าง (draft) ของงานและประวัติการแก้ไข 

อย่างไรก็ตาม หลายคนยอมรับว่าบริการตรวจจับการคัดลอกผลงาน เช่น Turnitin นั้นไม่มีความแม่นยำในการระบุข้อความที่เกิดจากแชทบอทหรือการทำงานแบบผสม ดังนั้นหากการโกงไม่ชัดเจน นักการศึกษาก็ไม่สามารถแน่ใจได้อย่างสมบูรณ์ว่ามีการใช้แชทบอท

Bonnie MacKellar จาก St. John's University กล่าวว่าอาจารย์ผู้สอนวิทยาการคอมพิวเตอร์ซึ่งจัดการกับการลอกเลียนผลงานโดยรับโค้ดโปรแกรมจากเพื่อนหรืออินเทอร์เน็ต มีแนวโน้มที่จะใช้การทดสอบกระดาษและต้องเขียนโค้ดด้วยลายมือ

MacKellar เสริมว่าการใช้ทางลัด AI ในชั้นเรียนเบื้องต้นจะทำให้นักเรียนไม่สามารถเรียนรู้ทักษะที่จำเป็นสำหรับหลักสูตรระดับสูงได้

อ่านข่าวเต็มได้ที่: Associated Press

วันศุกร์ที่ 18 สิงหาคม พ.ศ. 2566

แฮกเกอร์โจมตี chatGPT โดยการสนับสนุนของทำเนียบขาว

GPT4
Photo by D koi on Unsplash

ในการแข่งขันที่สนับสนุนโดยทำเนียบขาว แฮ็กเกอร์หลายพันคนจะเข้าร่วมการประชุม DEF CON ประจำปีในลาสเวกัส เพื่อโอกาสในการถอดรหัสตัวแบบปัญญาประดิษฐ์เชิงกำเนิด (generative artificial intelligence) รวมถึง ChatGPT ของ OpenAI

นักพัฒนาตัวแบบจะอนุญาตให้ผู้เข้าร่วมในทีมสีแดง (ทีมผู้จู่โจม) ผลักดันระบบคอมพิวเตอร์ไปยังขอบเพื่อระบุช่องโหว่ที่นำไปใช้ประโยชน์ได้

โฆษกของ OpenAI กล่าวว่า "ไม่เพียงแต่จะช่วยให้เรารวบรวมความคิดเห็นที่มีค่าซึ่งจะทำให้ตัวแบบของเราแข็งแกร่งและปลอดภัยขึ้นได้ ทีมสีแดงยังให้มุมมองที่แตกต่าง และความเห็นหลากหลายเพื่อช่วยชี้นำการพัฒนา AI" โฆษกของ OpenAI กล่าว

ผู้จัดงานออกแบบการประกวดตาม "พิมพ์เขียวสำหรับกฎหมายว่าด้วยสิทธิของ AI" ของสำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยีของทำเนียบขาว โดยมีจุดประสงค์เพื่อให้เกิดการใช้งาน AI ที่มีความรับผิดชอบมากขึ้นและจำกัดการตรวจสอบโดยใช้ AI

อ่านข่าวเต็มได้ที่: CNN


วันพฤหัสบดีที่ 17 สิงหาคม พ.ศ. 2566

chatGPT ตอบคำถามด้านวิศวกรรมซอฟต์แวร์ผิดเกินครึ่ง

using-chatGPT
ภาพจาก ZDNet

ChatGPT ตอบคำถามใน Stack Overflow ไม่ถูกต้อง 259 หรือ 52% จาก 512 คำถาม และ 77% ของคำตอบมีการใช้คำที่ไม่จำเป็น จากการศึกษาที่จัดทำโดยนักวิจัยของ Purdue University

อย่างไรก็ตาม นักวิจัยพบว่า 65% ของทั้งหมด ChatGPT ให้คำตอบที่เรียบเรียงอย่างดี จากคำถามด้านวิศวกรรมซอฟต์แวร์ โดยตอบในทุกแง่มุมของคำถาม

นักวิจัยยังถามบุคคล 12 คนที่มีทักษะการเขียนโปรแกรมต่างกันเพื่อประเมินคำตอบที่สร้างโดย ChatGPT "ผู้ใช้มองข้ามข้อมูลที่ไม่ถูกต้องในคำตอบของ ChatGPT (39.34% ของคำถามทั้งหมด) เนื่องจากข้อมูลเชิงลึกที่ครอบคลุม ชัดเจน และมีลักษณะเหมือนมนุษย์ในคำตอบของ ChatGPT" นักวิจัยกล่าว

อ่านข่าวเต็มได้ที่: ZDNet