วันจันทร์ที่ 22 มีนาคม พ.ศ. 2564

ใช้ภาษาเขียนโปรแกรมที่ไม่ได้ใช้กันทั่วไปเขียนมัลแวร์เพื่อเลี่ยงการตรวจจับ

Markus Spiske on Unsplash

นักวิจัยจาก Proofpoint บริษัท รักษาความมั่นคงทางไซเบอร์ได้ระบุว่ากลุ่มแฮ็กที่รู้จักกันในชื่อ TA800 กำลังแจกจ่ายมัลแวร์ (malware) ใหม่ที่เขียนด้วยภาษาโปรแกรม Nim เพื่อให้ตรวจจับได้ยากขึ้น มัลแวร์ NimzaLoader ซึ่งเผยแพร่ผ่านอีเมลฟิชชิ่งที่เชื่อมต่อกับโปรแกรมดาวน์โหลด PDF ปลอม มีวัตถุประสงค์เพื่อให้แฮกเกอร์สามารถเข้าถึงคอมพิวเตอร์ที่ใช้ระบบปฏิบัติการ Windows และสามารถป้อนคำสั่งให้ทำงานกับเครื่องคอมพิวเตอร์ Sherrod DeGrippo จาก Proofpoint กล่าวว่า“ TA800 มักใช้ประโยชน์จากมัลแวร์ที่แตกต่างและไม่เหมือนใคร และนักพัฒนาอาจเลือกใช้ภาษาโปรแกรมที่ไม่ค่อยมีใครใช้กันเช่น Nim เพื่อหลีกเลี่ยงการตรวจจับ เนื่องจากวิศวกรย้อนกลับ (reverse engineer) อาจไม่คุ้นเคยกับโปรแกรมที่เขียนด้วย Nim หรือไม่ได้มุ่งเน้นไปที่การพัฒนาโปรแกรมตรวจจับสำหรับโปรแกรมดังกล่าว ดังนั้นเครื่องมือและแซนด์บ็อกซ์อาจมีปัญหาในการวิเคราะห์ตัวอย่างของพวกมัน"

อ่านข่าวเต็มได้ที่: ZDNet


วันอาทิตย์ที่ 21 มีนาคม พ.ศ. 2564

เทคโนโลยีโต้แย้งเพื่อโต้วาทีกับมนุษย์

Project Debater โต้วาทีกับมนุษย์ Credit: Jason Henry/NYT/Redux/eyevine

นักวิทยาศาสตร์จาก IBM Research AI ใน Haifa อิสราเอลและ Dublin ประเทศไอร์แลนด์ ได้พัฒนา Project Debater ซึ่งเป็นระบบปัญญาประดิษฐ์ที่สามารถโต้วาทีกับมนุษย์  เทคโนโลยีนี้ผสมผสานกลยุทธ์ใหม่ในการรวบรวมและตีความเนื้อหาที่มีความเกี่ยวข้องในเชิงโต้แย้งจากข้อความ เข้ากับเทคนิคในการซ่อมแซมไวยากรณ์ของประโยค ซึ่งทำให้ระบบสามารถใช้ส่วนของประโยคจากแหล่งข้อมูลในการนำเสนอข้อโต้แย้ง โดยสิ่งที่กล่าวมาทั้งหมดนี้จะถูกรวมเข้ากับข้อมูลที่เตรียมไว้ล่วงหน้าที่ ซึ่งมีการจำแนกตามประเด็นสำคัญเพื่อใช้เป็นความรู้ ข้อโต้แย้ง และประเด็นโต้ตอบในหัวข้อต่างๆ และเสริมด้วยข้อความที่เขียนไว้ล่วงหน้าสำหรับการเกริ่นนำ และจัดโครงสร้างการนำเสนอในระหว่างการโต้วาที Project Debater แก้ปัญหาในการที่จะได้รับข้อมูลที่เพียงพอ เพื่อที่จะนำมาใช้ได้อย่างมีประสิทธิภาพโดยจำกัดหัวข้อให้แคบลงเหลือประมาณ 100 หัวข้อ และเก็บเกี่ยววัตถุดิบจากชุดข้อมูลขนาดใหญ่


อ่านข่าวเต็มได้ที่: Nature


วันเสาร์ที่ 20 มีนาคม พ.ศ. 2564

รายงานด้านความมั่งคงไซเบอร์บอกว่า ฟาร์มอัจฉริยะคือฟาร์มที่ถูกแฮกได้

Photo: Martin Harvey/Getty Images

นักวิจัยจาก Nanjing Agricultural University (NAU) ของจีนได้สำรวจการทำฟาร์มอัจฉริยะ รวมถึงเทคโนโลยีและโครงสร้างพื้นฐานที่เป็นรากฐานของมัน และค้นพบปัญหาด้านความปลอดภัยทางไซเบอร์ที่เป็นเอกลักษณ์ซึ่งเกิดจากแอปพลิเคชัน Internet of Things (IoT) ทางการเกษตร ภัยคุกคามที่อาจเกิดขึ้นต่อความถูกต้องของ IoT ได้แก่ ความเสียหายของอุปกรณ์อำนวยความสะดวก ความผิดพลาดของเซ็นเซอร์ในการเพาะพันธุ์สัตว์ปีกและปศุสัตว์ และการบุกรุกระบบควบคุมในเรือนเพาะ Xing Yang จาก NAU กล่าวว่าช่องโหว่ที่ต้องแก้เร่งด่วนที่สุดในการเกษตรอัจฉริยะ เกี่ยวข้องกับสภาพแวดล้อมทางกายภาพเช่นการบุกรุกระบบควบคุมโรงงาน และการระบุตำแหน่งที่ผิดพลาดของอากาศยานไร้คนขับ Yang ยกตัวอย่างพื้นที่ชนบทมีโอกาสอย่างมากที่จะมีสัญญาณเครือข่ายที่ไม่ดี ซึงจะนำไปสู่การได้สัญญาณที่ผิดพลาดจากสถานีฐาน  Yang และเพื่อนร่วมงานของเขาเสนอแนะให้ใช้มาตรการตอบโต้เพื่อแก้ปัญหา ซึ่งรวมถึงการใช้ปัญญาประดิษฐ์เพื่อตรวจจับผู้ใช้ที่เป็นอันตราย และการประยุกต์ใช้มาตรฐานความมั่นคงในระดับอุตสาหกรรมที่มีอยู่ เพื่อออกแบบกกรอบการรักษาความปลอดภัยโดยเฉพาะสำหรับ IoT ทางการเกษตร

อ่านข่าวเต็มได้ที่: IEEE Spectrum


วันศุกร์ที่ 19 มีนาคม พ.ศ. 2564

IBM พัฒนาขั้นตอนวิธี AI เพื่อผลิตยาปฎิชีวนะ และตอนนี้มันสร้างไปสองตัวแล้ว

ภาพจาก New Atlas

IBM Research ใช้ปัญญาประดิษฐ์ (artificial intelligence) หรือ AI เพื่อพัฒนายาปฏิชีวนะชนิดใหม่ให้ได้รวดเร็วยิ่งขึ้น และตอนนี้มันได้ผลิตยาที่มีแนวโน้มว่าจะเป็นยาที่เป็นทางเลือกที่ใช้ได้จริงสองตัวแล้ว การที่ยาแต่ละตัวใช้เวลาผลิตหลายปีเป็นเพราะมันต้องใช้การผสมผสานโมเลกุลเข้าด้วยกัน ซึ่งมีทางเลือกในการผสมแบบนับไม่ถ้วน เพื่อเร่งกระบวนการให้เร็วชึ้น นักวิจัยใช้ตัวแบบที่เรียกว่า  deep generative autoencoder เพื่อตรวจสอบช่วงของลำดับเป๊ปไทด์ (peptide) รวบรวมข้อมูลเกี่ยวกับฟังก์ชันและโมเลกุลที่อยู่ภายในของพวกมัน และมองหาความคล้ายคลึงกับเป็ปไทด์ตัวอื่น ๆ  จากนั้นนักวิจัยใช้ระบบ Controlled Latent attribute Space Sampling (CLaSS) เพื่อสร้างโมเลกุลเปปไทด์ใหม่ที่มีคุณสมบัติเฉพาะตามข้อมูลที่รวบรวมได้โดยตัวแบบ ระบบ AI ระบุ สังเคราะห์ และทดลองกับสิ่งที่น่าจะเป็นเปปไทด์ของยาปฏิชีวนะใหม่ 20 ตัวในช่วง 48 วันซึ่งสามารถผลิตได้ 2 ตัวที่มีประสิทธิภาพในการต่อต้านแบคทีเรีย แบบ Gram-positive และ Gram-negative หลายชนิด

อ่านข่าวเต็มได้ที่: New Atlas

วันพฤหัสบดีที่ 18 มีนาคม พ.ศ. 2564

นักวิจัยเบลอรูปใบหน้าที่ทำให้เกิดอัลกอริธึมเป็นพัน ๆ วิธี

PHOTOGRAPH: MADS PERCH/GETTY IMAGES

ความกังวลเกี่ยวกับความเป็นส่วนตัวทำให้นักวิจัยที่เป็นผู้ดูแล ImageNet เบลอใบหน้าของคนทุกคนภายในชุดข้อมูล เพื่อพิจารณาว่าการทำเช่นนั้นจะส่งผลต่อประสิทธิภาพของอัลกอริธึมการจดจำวัตถุที่ได้รับการฝึกสอนจากชุดข้อมูลหรือไม่ ImageNet มีภาพ 1.5 ล้านภาพพร้อมป้ายกำกับประมาณ 1,000 ป้าย แต่มีเพียง 243,198 ภาพเท่านั้นที่ถูกเบลอ นักวิจัยเบลอใบหน้าโดยใช้บริการ AI ของ Amazon Rekognition และพบว่าไม่ส่งผลกระทบต่อประสิทธิภาพของอัลกอริธึมการจดจำวัตถุหลายตัวที่ได้รับการฝึกสอนโดยใช้ ImageNet Olga Russakovsky จาก Princeton University กล่าวว่า "เราหวังว่าการพิสูจน์ของแนวคิดนี้ จะปูทางไปสู่แนวทางปฏิบัติในการรวบรวมข้อมูลภาพที่คำนึงถึงความเป็นส่วนตัวมากขึ้นในภาคสนาม" อย่างไรก็ตาม Aleksander Madry แห่งสถาบันเทคโนโลยีแมสซาชูเซตส์กล่าวว่าการฝึกโมเดล AI บนชุดข้อมูลที่มีใบหน้าเบลออาจส่งผลที่ไม่ได้คาดคิด Madry กล่าวว่า "อคติในข้อมูลเป็นเรื่องละเอียดอ่อนมาก แต่ส่งผลกระทบอย่างมีนัยสำคัญ"

อ่านข่าวเต็มได้ที่: Wired