【ITBEAR科技資訊】10月22日消息,全息圖像技術一直以來為醫學成像、制造業、虛擬現實等領域提供了卓越的三維視覺效果,遠超過了傳統的二維圖像。然而,傳統全息技術的繁瑣和高昂成本限制了其廣泛應用。最近,日本千葉大學工程研究院的下馬智之教授領導的研究團隊提出了一項基于深度學習的新方法,可從普通攝像機拍攝的二維彩色圖像中直接生成三維場景和物體的全息圖像。這一創新性研究已在《光學與激光工程》雜志上發表,研究團隊中還包括石井佳之和伊藤智之兩位成員。
據ITBEAR科技資訊了解,這項研究的動機在于解決全息顯示領域的難題,包括三維數據獲取、全息圖像計算成本和全息圖像與全息顯示設備特性之間的轉換。下馬教授表示:“我們進行這項研究是因為我們相信深度學習近年來發展迅速,有潛力解決這些問題?!?/p>
新方法利用三個深度神經網絡(DNN)來轉換普通二維彩色圖像為可用于顯示三維場景或物體的全息圖像。第一個DNN將普通攝像機拍攝的彩色圖像作為輸入,然后預測相關的深度圖,提供了圖像三維結構的信息。第一個DNN生成的原始RGB圖像和深度圖都被第二個DNN用來生成全息圖像。第三個DNN對第二個DNN生成的全息圖像進行優化,以適應不同設備上的顯示需求。
研究人員發現,這一方法不僅在數據處理和全息圖像生成方面表現出色,還優于最先進的圖形處理單元。下馬教授補充說:“我們方法的另一個優點是,最終生成的全息圖像呈現出自然而真實的三維效果。此外,生成全息圖像時無需深度信息,從而大幅降低了成本,無需使用RGB-D攝像機等三維成像設備?!?/p>
未來,這一方法有望在頭戴式顯示器領域找到廣泛應用,為生成高保真的三維顯示提供有力支持。此外,它還可能推動車載全息顯示器的革新,以更直觀的方式呈現行人、道路和標志等必要信息,為全息技術的推廣和發展鋪平道路。