NVIDIA將於9月25日開源Audio2Face模型與SDK

時間:2025-09-30
來源:18183新聞
责任编辑:夏雨星梦

【NVIDIA將於9月25日開源Audio2Face模型與SDK,讓所有遊戲和3D應用開發者都能夠構建並部署帶有先進動畫的高精度角色。NVIDIA將開放Audio2Face的訓練框架,任何人都可以針對特定用途對現有模型進行微調與定制。

NVIDIA Audio2Face透過生成式AI驅動的即時面部動畫與嘴形同步,加速寫實數字角色的創作流程。Audio2Face利用AI根據音頻輸入生成逼真的面部動畫。這項技術通過分析音素、語調等聲學特徵,創建動畫數據流,並將其映射至角色的面部表情。這些動畫數據既可用於離線渲染預設的資產,也可即時傳輸到動態的、由AI驅動的角色,實現精確的嘴形同步與情感表達。

Audio2Face模型已廣泛應用於遊戲、媒體娛樂以及客戶服務等行業。許多獨立軟件廠商ISV與遊戲開發商都在其應用中採用了Audio2Face。遊戲開發者包括Codemasters、GSC Game World、網易、完美世界。ISV則包括Convai、Inworld AI、Reallusion、Streamlabs和UneeQ。

以下是開源工具的完整列表,更多詳情請查看面向遊戲開發的NVIDIA ACE:

- **Audio2Face SDK**:運行面部動畫的庫與文檔,適用於在本地PC或雲端創作。

- **Autodesk Maya插件**:具有本地運行功能的參考插件(v2.0),允許用戶在Maya中發送音頻輸入並接收角色的面部動畫。

- **虛幻引擎 5 插件**:適用於UE 5.5 和 5.6 的 UE5 插件 (v2.5),允許用戶在虛幻引擎5中發送音頻輸入並接收角色的面部動畫。

- **Audio2Face訓練框架**:訓練框架(v1.0),可使用用戶的自有數據創建Audio2Face模型。

- **Audio2Face訓練樣本數據**:用於快速上手訓練框架的示例數據。

- **Audio2Face模型**:回歸(v2.2)與擴散(v3.0)模型,用於生成唇形同步。

- **Audio2Emotion模型**:生產 (v2.2)和實驗(v3.0) 模型,用於從音頻推斷情緒狀態。】

免責聲明:文中圖文均來自網絡,如有侵權請聯系刪除,18183新遊發布此文僅為傳遞信息,不代表18183認同其觀點或證實其描述。
用戶評論