英偉達用AI生成交互式3D虛擬場景,自動構建虛擬世界
英偉達 今天推出了一項突破性的人工智能研究,開發者首次可以通過一個根據真實世界視頻訓練的模型來渲染完全合成的交互式3D環境。
研究人員利用神經網絡來實時渲染一個合成的3D環境。就目前而言,虛擬世界中的每一個對象都需要單獨建模,而這個過程成本高昂且十分耗時。與之相比,英偉達采用了一個能夠根據真實視頻自動進行學習的模型來渲染諸如建筑物,數目和車輛等對象。
這項技術為游戲,汽車,架構,機器人或虛擬現實快速創建一個虛擬世界提供了潛力。例如,你可以根據真實世界位置生成交互式場景,或者在消費者面向渲染流行歌手的實況 演唱會 。
負責這一項目的英偉達Applied Deep Learning Research副總裁Bryan Catanzaro表示:“在25年來,英偉達一直在發明生成交互式圖形的新方法,而這是我們第一次通過神經網絡實現這一目標。神經網絡,特別是生成模型,將改變圖形的創建方式。這可以幫助開發者以更低的成本來創建新場景。”
研究結果是一款簡單的駕駛游戲,其中用戶可以在城市場景中導航。所有內容都以交互方式呈現,并使用了能夠將由傳統圖形引擎生成的3D世界草圖轉換為視頻的神經網絡。據悉,英偉達將在蒙特利爾舉行的NeurIPS 2018大會上演示實況demo。
這個神經網絡能夠模擬世界的外觀,包括照明,材質及其動態。由于場景是完全合成生成,因此看來這可以輕松進行編輯,自由刪除,修改或添加對象。
研究人員指出:“建模和重建視覺世界動態的能力對于建立智能代理至關重要。除了純粹的科學興趣,學習如何合成連續視覺體驗在計算機視覺,機器人和計算機圖形學中存在廣泛的應用。”
文章來源:映維網 如轉載請標明出處
原文鏈接 : https://yivian.com/news/53630.html
未經授權,禁止轉載,違者必將追究法律責任。