來自蘇黎世聯邦理工學院和紐約大學的Oliver Glauser,Shihao Wu,Daniele Panozzo,Otmar Hilliges和Olga Sorkine-Hornung日前在ACM SIGGRAPH 2019大會展示了一款可以實時捕獲高精度手勢的伸展感應手套。
這支研究團隊指出,其研發(fā)的手套可以應對一系列具有挑戰(zhàn)性的設置,如遮擋嚴重的環(huán)境或不理想的光照條件,從而支持各種各樣的應用,如虛擬現實和增強現實。
據介紹,這款伸展感知應手套可以以高精度捕獲手勢,無需外部光學設置。團隊采用了大部分制備實驗室中都有提供的簡單工具,同時演示了如何以低成本制造和校準設備。
為了根據內嵌至手套的電容式傳感器所提供的數據來重建姿勢,這群研究人員提出了一種利用傳感器本身的空間布局的深度網絡架構。只需訓練網絡一次,并利用低成本的現有手勢重建系統(tǒng)來采集訓練數據。然后手套可以即時為每位用戶進行校準。
他們指出:“我們已經在一系列的實驗中驗證了手套的性能,并且探索了不同的模型和校準方法。與商業(yè)數據手套相比,我們的重建精度提高了35%。”
更多關于這款手套的信息請參閱論文《Interactive Hand Pose Estimation using a Stretch-Sensing Soft Glove》,并可點擊下載與實驗相關的數據集。
原文鏈接:https://yivian.com/news/61076.html
來源:映維網