วันศุกร์ที่ 9 เมษายน พ.ศ. 2564

เครื่องมือที่ใช้ AI เป็นฐานสามารถตรวจจับอาการไบโพลาร์ได้ตั้งแต่ระยะเริ่มต้น

Owen Beard on Unsplash

ตัวแบบการเรียนรู้ของเครื่อง (machine learning) หรือ ML ที่พัฒนาโดยนักวิจัยจาก University of Alberta (UAlberta) ของแคนาดาและเพื่อนร่วมงานจากจีน สามารถช่วยระบุการขาดดุลทางปัญญาที่ละเอียดอ่อน ซึ่งบ่งบอกถึงโรคไบโพลาร์ในระยะเริ่มต้นหรือขั้นแรกของโรค ทีมได้ฝึกตัวแบบโดยการเปรียบเทียบผู้ป่วยที่เป็นโรคไบโพลาร์เรื้อรัง กับกลุ่มควบคุมที่สุขภาพดี จากนั้นแสดงให้เห็นว่าตัวแบบสามารถแยกความแตกต่างของผู้ป่วยโรคไบโพลาร์ในขั้นแรกจากกลุ่มควบคุมด้วยความแม่นยำ 76% นักวิจัยคิดว่าการทดสอบความรู้ความเข้าใจ (cognitive test) ที่ใช้การวิเคราะห์ ML เป็นเทคนิคที่ใช้ค่าใช้จ่ายน้อย และใช้เวลาในการวินิจฉัยโรคไบโพลาร์น้อยกว่าการถ่ายภาพสมอง และมันยังสามารถติดตามอาการเมื่อเวลาผ่านไปได้อีกด้วย

อ่านข่าวเต็มได้ที่: Folio (University of Alberta, Canada)

วันพฤหัสบดีที่ 8 เมษายน พ.ศ. 2564

นักวิจัยออสเตรเลียใช้การเรียนรู้ของเครื่องเพื่อวิเคราะห์ศิลปะในหิน

Image: Mimal Land Management Aboriginal Corporation (MLMAC)

นักวิจัยชาวออสเตรเลียใต้ที่มหาวิทยาลัย Flinders กำลังวิเคราะห์วิวัฒนาการของศิลปะบนหินผ่านการเรียนรู้ของเครื่อง (machine learning) ทีมงานได้ศึกษาภาพงานศิลปะที่รวบรวมระหว่างการสำรวจพื้นที่ Arnhem Land โดยใช้ตัวแบบโครงข่ายประสาทเทียมแบบคอนโวลูชัน (convolutional neural network) ที่ได้รับการฝึกฝนและเผยแพร่ก่อนหน้านี้ และกลุ่มของชุดข้อมูลที่แต่ละชุดออกแบบมาสำหรับการจำแนกประเภทวัตถุ ผู้ตรวจสอบจาก Flinders ใช้การเรียนรู้แบบถ่ายโอน (transfer learning) เพื่อปรับใช้เครือข่ายเหล่านี้บนชุดข้อมูลโดยไม่ต้องฝึกอบรมใหม่ และวิเคราะห์การตอบสนองของตัวแบบบนชุดข้อมูลศิลปะในก้อนหิน Daryl Wesley ของ Flinders กล่าวว่าคอมพิวเตอร์ได้สังเกตเห็นวัตถุมากกว่า 1,000 ประเภท และเรียนรู้ที่จะแยกความแตกต่างโดยดูจากภาพถ่าย Ian Moffat ของ Flinders กล่าวว่าการเรียนรู้แบบถ่ายโอนช่วยขจัดอคติของมนุษย์จำนวนมากออกจากการวิเคราะห์ และแง่มุมที่น่าตื่นเต้นอย่างยิ่งของงานวิจัยนี้ก็คือ "เป็นการทำซ้ำผลลัพธ์ที่ได้จากการศึกษาอื่น ๆ ที่ใช้วิธีการแบบดั้งเดิมมากกว่านี้"

อ่านข่าวเต็มได้ที่: ZDNet

วันพุธที่ 7 เมษายน พ.ศ. 2564

จากการศึกษาของ MIT พบข้อผิดพลาด "อย่างเป็นระบบ" ในการให้ป้ายกำกับของชุดข้อมูลที่ได้รับความนิยมในการทำเบนช์มาร์กของ AI

ตารางแสดงเปอร์เซ็นต์ของการให้ป้ายกำกับที่ผิดพลาดของชุดข้อมูลยอดนิยมของเบนช์มาร์ก AI

การวิเคราะห์โดยนักวิจัยของ Massachusetts Institute of Technology (MIT) แสดงให้เห็นถึงความอ่อนแอของชุดข้อมูลมาตรฐานปัญญาประดิษฐ์โอเพนซอร์สที่เป็นที่นิยม เนื่องจากข้อผิดพลาดในให้ป้ายกำกับ ทีมงานได้ตรวจสอบชุดทดสอบ 10 ชุดจากชุดข้อมูลรวมถึงฐานข้อมูล ImageNet และพบว่ามีข้อผิดพลาดเฉลี่ย 3.4% ในชุดข้อมูลทั้งหมด นักวิจัยของ MIT คำนวณว่าฐานข้อมูล QuickDraw ที่ดูแลโดย Google ซึ่งมีภาพวาด 50 ล้านภาพ มีข้อผิดพลาดมากที่สุดในชุดทดสอบโดยอยู่ที่ 10.12% ของป้ายกำกับทั้งหมด นักวิจัยกล่าวว่าการให้ป้ายกำกับที่ไม่ถูกต้องเหล่านี้ทำให้ผลการทดสอบจากชุดทดสอบไม่เสถียร นักวิจัยสรุปว่า "โดยทั่วไปแล้วผู้ปฏิบัติงานด้านแมชชีนเลิร์นนิงจะเลือกตัวแบบที่จะใช้ตามความแม่นยำในการทดสอบ การค้นพบของเราแนะนำให้ระวัง โดยเสนอว่าการตัดสินตัวแบบจากชุดทดสอบที่มีป้ายกำกับอย่างถูกต้องอาจมีประโยชน์มากกว่า โดยเฉพาะอย่างยิ่งสำหรับชุดข้อมูลจริงที่มักจะมีข้อมูลที่มีข้อมูลที่ไม่พึงประสงค์ปะปนมา 

อ่านข่าวเต็มได้ที่: VentureBeat

วันอังคารที่ 6 เมษายน พ.ศ. 2564

นักวิทยาศาสตร์สร้างรุ่นต่อไปของหุ่นยนต์มีชีวิต

Photos: Doug Blackiston, Tufts University

นักวิทยาศาสตร์จาก University of Vermont (UVM) ทำงานร่วมกับนักชีววิทยาของ Tufts University ติดตามการพัฒนาของเครื่องที่สามารถซ่อมแซมตัวเองทางชีววิทยาที่สร้างจากเซลล์กบ ที่เรียกว่า Xenobot โดยสร้างรุ่น (generation) ต่อไปของ Xenobots ทีสามารถประกอบตัวเองจากเซลล์แต่ละเซลล์ ไม่ใช้เซลล์กล้ามเนื้อสำหรับการเคลื่อนไหว และสามารถบันทึกความทรงจำได้ Xenobots รุ่นต่อไปมีประสิทธิภาพเหนือกว่ารุ่นก่อนหน้าอย่างมาก และยังแสดงให้เห็นว่าสนับสนุนหน่วยความจำระดับโมเลกุลและการรักษาตัวเอง Doug Blackiston ของ Tufts กล่าวว่า "วิธีการนี้ช่วยให้เราเข้าใจว่าเซลล์สื่อสารกันอย่างไรเมื่อพวกมันมีปฏิสัมพันธ์ระหว่างกันในระหว่างการพัฒนาและเราจะควบคุมปฏิสัมพันธ์เหล่านั้นให้ดีขึ้นได้อย่างไร"

อ่านข่าวเต็มได้ที่: UVM Today

วันจันทร์ที่ 5 เมษายน พ.ศ. 2564

กล้องสมาร์ตโฟนที่ใช้ในการวัดชีพจรอัตราการหายใจอาจช่วยเรื่องดูแลสุขภาพจากระยะไกล

Cristina Zaragoza on Unsplash

นักวิจัยจาก University of Washington  (UW) และ Microsoft Research ได้พัฒนาระบบที่ใช้กล้องจากสมาร์ตโฟนหรือคอมพิวเตอร์ เพื่ออ่านชีพจรและการหายใจจากวิดีโอที่แสดงใบหน้าของผู้ใช้ ระบบรักษาความเป็นส่วนตัวโดยทำงานอยู่บนอุปกรณ์แทนที่จะอยู่ในระบบคลาวด์ ในขณะที่แมชชีนเลิร์นนิง (ML) จะบันทึกการเปลี่ยนแปลงเล็กน้อยของแสงที่สะท้อนจากใบหน้าของคน ซึ่งจะมีความสัมพันธ์กับการไหลเวียนของเลือดที่เปลี่ยนแปลงไป นักวิจัยเริ่มจากได้ฝึกฝนระบบจากชุดข้อมูลวิดีโอของใบหน้า และข้อมูลชีพจรและการหายใจของแต่ละบุคคลที่บันทึกจากเครื่องมือที่เป็นมาตรฐาน มันคำนวณสัญญาณชีพโดยใช้ข้อมูลเชิงพื้นที่และเวลา (spatial and temporal) จากวิดีโอ Xin Liu จาก UW กล่าวว่า“ ทุกคนมีความแตกต่างกัน ดังนั้นระบบนี้จึงต้องสามารถปรับให้เข้ากับลายเซ็นทางกายภาพที่เป็นเอกลักษณ์ของแต่ละคนได้อย่างรวดเร็ว และแยกสิ่งนี้ออกจากรูปแบบอื่น ๆ เช่นรูปลักษณ์ และในสภาพแวดล้อมที่พวกเขาอยู่”

อ่านข่าวเต็มได้ที่: UW News