วันอังคารที่ 12 กรกฎาคม พ.ศ. 2565

นักวิจัยสร้าง "คอมพิวเตอร์โควิด" เพื่อเพิ่มความเร็วในการวินิจฉัย

chest-xray
Photo by CDC on Unsplash

เครื่องมือปัญญาประดิษฐ์ (artificial intelligence) หรือ AI ที่พัฒนาขึ้นโดยนักวิจัยจาก University of Leicester สหราชอาณาจักร ตรวจพบเชื้อโควิด-19 ด้วยความแม่นยำสูงด้วยการวิเคราะห์การสแกนทรวงอกด้วยเครื่องเอกซเรย์คอมพิวเตอร์ (CT) ซอฟต์แวร์ซึ่งใช้อัลกอริทึมการเรียนรู้เชิงลึกสามารถนำไปใช้กับอุปกรณ์พกพาได้

Yudong Zhang แห่งมหาวิทยาลัยเลสเตอร์กล่าวว่าเครื่องมือนี้ “สามารถค้นหาบริเวณที่น่าสงสัยในภาพสแกนทรวงอกได้โดยอัตโนมัติ และทำนายได้อย่างแม่นยำ” Zhang กล่าวเสริมว่าความแม่นยำของเครื่องมือหมายความว่า “สามารถใช้ในการวินิจฉัยทางคลินิกของ โควิด-19 ซึ่งอาจช่วยควบคุมการแพร่กระจายของไวรัสได้”

อ่านข่าวเต็มได้ที่: University of Leicester (U.K.)

วันอาทิตย์ที่ 10 กรกฎาคม พ.ศ. 2565

บล็อกเชนทำให้การจัดเก็บจีโนมมีความปลอดภัย

gnome-blockchain
ภาพจาก YaleNews

เทคโนโลยี SAMchain ที่พัฒนาโดยนักวิทยาศาสตร์ของ Yale University ใช้ประโยชน์จากบล็อกเชนเพื่อให้ผู้ใช้ควบคุมข้อมูลจีโนมของตนเองได้ SAMchain รับประกันความปลอดภัยของข้อมูลจีโนมส่วนบุคคล โดยป้องกันการเปลี่ยนแปลงจากผู้อื่น และความเสียหายที่อาจเกิดขึ้นได้เป็นครั้งคราวของข้อมูล DNA ที่จัดเก็บบนคลาวด์ 

นักวิจัยได้หลีกเลี่ยงปัญหาในการจัดเก็บชุดข้อมูลจำนวนมากที่ได้มาจากการจัดลำดับจีโนมโดยการเปรียบเทียบ DNA ของแต่ละบุคคลกับจีโนมอ้างอิงมาตรฐาน จากนั้นจึงเก็บเฉพาะความแตกต่างในบล็อกที่เชื่อมโยงกันของบล็อกเชน 

บล็อกเหล่านี้ถูกทำดัชนีตามลำดับเพื่อให้สามารถสืบค้นได้อย่างรวดเร็ว และความแตกต่างเหล่านั้นสามารถเชื่อมโยงกับสภาวะที่มีปัจจัยเสี่ยงทางพันธุกรรมที่ทราบกันอยู่แล้ว "เราคิดว่าสิ่งนี้จะทำให้การวิจัยจีโนมง่ายขึ้น" อดีตนักวิจัยของ Yale Gamze Gürsoy กล่าว

อ่านข่าวเต็มได้ที่: YaleNews

วันเสาร์ที่ 9 กรกฎาคม พ.ศ. 2565

หุ่นยนต์หิ่งห้อยเริ่มบินแล้ว

lightning-robot-bugs
ภาพจาก MIT News

หิ่งห้อยเป็นแรงบันดาลใจให้นักวิจัยที่ Massachusetts Institute of Technology (MIT) และ Ningxia University ของจีน สร้างหุ่นยนต์ที่บินและเปล่งแสงได้ซึ่งช่วยในการติดตามการเคลื่อนไหวและการสื่อสารให้สะดวกขึ้น 

นักวิจัยได้ออกแบบตัวกระตุ้นแบบอ่อนเพื่อควบคุมปีกของหุ่นยนต์ และฝังอนุภาคไฟฟ้าที่เรืองแสงไว้ภายในตัวกระตุ้น ซึ่งจะปล่อยแสงสีเมื่อสัมผัสกับสนามไฟฟ้าของหุ่นยนต์ 

ทีมงานใช้แสงนี้และกล้องสมาร์ทโฟนสามตัวกับโปรแกรมคอมพิวเตอร์เพื่อติดตามตำแหน่งและท่าทางของหุ่นยนต์ในระยะ 2 มิลลิเมตร ด้วยระบบจับภาพการเคลื่อนไหวอินฟราเรดที่ล้ำสมัย 

"นี่เป็นก้าวสำคัญในการส่งหุ่นยนต์เหล่านี้ขึ้นบินในสภาพแวดล้อมกลางแจ้ง เมื่อเราไม่มีระบบติดตามการเคลื่อนไหวที่ล้ำสมัยที่ได้รับการปรับแต่งมาอย่างดี" Kevin Chen จาก MIT กล่าว

อ่านข่าวเต็มได้ที่: MIT News

วันศุกร์ที่ 8 กรกฎาคม พ.ศ. 2565

อัลกอริทึมเรียนรู้เชิงลึกติดตั้งบนอุปกรณ์เคลื่อนที่เพื่อคัดกรองโรคตา

deep-learning-eye-disese-app
ภาพจาก The Engineer

อัลกอริทึม (deep learning) หรือ DL ที่พัฒนาโดยนักวิทยาศาสตร์ที่ Tohoku University ของญี่ปุ่นจะสแกนภาพดวงตาเพื่อระบุลักษณะที่เกี่ยวข้องกับโรค ตัวแบบ DLที่มีน้ำหนักเบาสามารถฝึกได้โดยใช้รูปภาพจำนวนน้อย และใช้กับอุปกรณ์เคลื่อนที่ได้

"ตัวแบบที่พัฒนาขึ้นของเรามีความแม่นยำในการแบ่งส่วนที่ดีขึ้น และเพิ่มความสามารถในการทำซ้ำของการฝึกตัวแบบแม้จะมีพารามิเตอร์น้อยลง ทำให้มีประสิทธิภาพและ ใช้ทรัพยากรน้อยกว่าเมื่อเทียบกับซอฟต์แวร์เชิงพาณิชย์อื่นๆ" Toru Nakazawa จาก Tohoku อธิบาย

นักวิจัยใช้อุปกรณ์ที่มีทรัพยากรไม่มากเพื่อตรวจคัดกรองโรคต้อหิน "ตัวแบบของเรายังสามารถตรวจจับ/แบ่งส่วนจุดบอดในดวงตา และการตกเลือดในภาพของก้นตาได้อย่างแม่นยำ" Nakazawa กล่าว

อ่านข่าวเต็มได้ที่: The Engineer

วันพฤหัสบดีที่ 7 กรกฎาคม พ.ศ. 2565

นักวิทยาศาสตร์พัฒนาอัลกอริทึมเพื่อศึกษาข้อมูลจีโนม

SCOPE-result
ภาพจาก UCLA Samueli School of Engineering

ทีมนักวิจัยจากหลายสถาบันที่นำโดย Sriram Sankararaman แห่ง University of California, Los Angeles มหาวิทยาลัยแคลิฟอร์เนีย ได้พัฒนาอัลกอริธึมที่สามารถวิเคราะห์ข้อมูลจีโนม (genome) ได้เร็วกว่าวิธีก่อนหน้านี้ถึง 1,800 เท่า ทำให้สามารถวิเคราะห์ข้อมูลจากผู้คน 1 ล้านคนในวันเดียวได้

นักวิจัยได้ออกแบบเทคนิค Scalable pOPulation structure inference (SCOPE) เพื่อเร่งและปรับขนาดการอนุมานความแปรปรวนทางพันธุกรรมภายในประชากร เพื่อเปิดเผยแบบรูป (pattern) นำไปสู่ข้อสรุปโดยตรงหรือหลีกเลี่ยงการค้นพบความสัมพันธ์ลวงในการวิจัย

SCOPE ช่วยลดปริมาณทรัพยากรที่ต้องใช้ในการประมวลผลชุดข้อมูลขนาดใหญ่ และลดต้นทุนในการคำนวณ ในการทดลองหนึ่ง นักวิจัยใช้หน่วยความจำเพียง 250 กิกะไบต์ (GB) ในการคำนวณ แทนที่จะใช้พื้นที่ประมาณ 2,000 GB ที่เครื่องมือวิจัยก่อนหน้านี้ใช้

อ่านข่าวเต็มได้ที่: UCLA Samueli School of Engineering