來自英國諾丁漢大學和英國金斯頓大學的一組AI研究人員近日創造了一個辦法,讓AI僅通過一張平面人像就可以創建出原本的三維模型。研究人員向卷積神經網絡(CNN/ConvolutionalNeuralNetwork),輸入海量的人臉數據后,神經網絡自己學會了如何根據一張從未見過的照片猜出來這個人的真實模樣。
團隊在網站上公開了相關的文獻和代碼,KUKA機器人示教器維修,下面是一小段對這個技術的介紹:
三維人臉重建是一個非常困難的計算機視覺基礎問題。當前的系統通常假定有多個面部圖像(有時來自同一對象)作為輸入,并且必須解決許多方法上的挑戰,例如大量面部姿勢、表情和非均勻照明等因素間的對應關系。通常的方法都需要復雜而低效的建模和匹配工作。
但是,在這個項目中,工業機器人維修,我們嘗試用包括2D圖像和三維面部模型或掃描圖像在內的素材,訓練卷積神經網絡從而避開之前方法的瓶頸。現在,我們的神經網絡只需要輸入單一的二維人臉圖像,它就可以重建整個三維人臉模型,并且還能夠識別任意面部姿勢和表情。
在36氪之前報道的《A16Z合伙人是如何看無人車網絡效應的》一文中,我們分析到,計算機視覺對于自動駕駛技術非常重要,無人車只有知道自己在什么位置、身邊的車輛和行人在做什么以及周邊有什么信號指示才可能安全上路行駛。目前,鑒于計算機視覺還不能從大量2D照片中判斷路況,所以大多數無人車公司還需要使用多種傳感器加高精地圖方式為無人車導航。
但是現在,我們能使用到的這個測試揭示了計算機視覺發展的冰山一角,如果無人車能夠像人類一樣通過眼睛判斷路況,www.tka.net.cn,大多數無人車公司的發展路徑就會被攪亂,而特斯拉等待計算機視覺出現重大突破的少數無人車公司之一則下對了賭注。