Cristina Zaragoza on Unsplash |
นักวิจัยจาก University of Washington (UW) และ Microsoft Research ได้พัฒนาระบบที่ใช้กล้องจากสมาร์ตโฟนหรือคอมพิวเตอร์ เพื่ออ่านชีพจรและการหายใจจากวิดีโอที่แสดงใบหน้าของผู้ใช้ ระบบรักษาความเป็นส่วนตัวโดยทำงานอยู่บนอุปกรณ์แทนที่จะอยู่ในระบบคลาวด์ ในขณะที่แมชชีนเลิร์นนิง (ML) จะบันทึกการเปลี่ยนแปลงเล็กน้อยของแสงที่สะท้อนจากใบหน้าของคน ซึ่งจะมีความสัมพันธ์กับการไหลเวียนของเลือดที่เปลี่ยนแปลงไป นักวิจัยเริ่มจากได้ฝึกฝนระบบจากชุดข้อมูลวิดีโอของใบหน้า และข้อมูลชีพจรและการหายใจของแต่ละบุคคลที่บันทึกจากเครื่องมือที่เป็นมาตรฐาน มันคำนวณสัญญาณชีพโดยใช้ข้อมูลเชิงพื้นที่และเวลา (spatial and temporal) จากวิดีโอ Xin Liu จาก UW กล่าวว่า“ ทุกคนมีความแตกต่างกัน ดังนั้นระบบนี้จึงต้องสามารถปรับให้เข้ากับลายเซ็นทางกายภาพที่เป็นเอกลักษณ์ของแต่ละคนได้อย่างรวดเร็ว และแยกสิ่งนี้ออกจากรูปแบบอื่น ๆ เช่นรูปลักษณ์ และในสภาพแวดล้อมที่พวกเขาอยู่”
อ่านข่าวเต็มได้ที่: UW News