TANGO是什么

TANGO 是一個由東京大學和 CyberAgent AI Lab 共同推出的開源框架,專注于生成與目標語音同步的全身手勢視頻?;诜謱右纛l運動嵌入和擴散插值網絡,將目標語音音頻與參考視頻庫中的動作完美匹配,確保制作出高保真度、動作同步的視頻。TANGO 技術突破極大地降低視頻內容制作的成本,包含新聞播報、虛擬人解說和虛擬 YouTube 內容創作等領域,為用戶提供一種高效且經濟的解決方案。

TANGO  東京大學和CyberAgent AI Lab推出聲音驅動全身手勢視頻生成框架 第1張TANGO的主要功能語音驅動的全身手勢生成:根據目標語音音頻生成與之同步的全身手勢視頻。高保真視頻制作:確保生成的視頻具有高保真度,動作自然且與語音內容精確匹配。跨模態對齊:基于分層音頻運動嵌入技術,實現音頻信號與視頻動作之間的精準對齊。過渡幀生成:用擴散插值網絡生成高質量的過渡幀,確保視頻動作的連貫性。外觀一致性保持:在生成的視頻中保持與參考視頻相同的人物外觀和背景,避免視覺不一致的問題。TANGO的技術原理分層音頻運動嵌入(AuMoCLIP):隱式的層次化音頻-動作聯合嵌入空間,用在編碼配對的音頻和動作數據?;趯Ρ葘W習,將語音音頻和動作數據映射到一個共同的潛在空間中,讓匹配的音頻和動作在空間中的距離更近,實現精準的動作檢索。擴散插值網絡(ACInterp):網絡基于現有的視頻生成擴散模型,用在生成高質量的過渡幀。包括一個參考運動模塊和單應背景流,保持生成視頻與參考視頻間的外觀一致性。有效消除傳統基于流的插值方法中常見的模糊和重影偽影。動作圖檢索方法:TANGO基于學習的方法,而非簡單的音頻起始特征和關鍵詞匹配,檢索與目標語音音頻最匹配的動作路徑。能更好地處理不同說話者的動作與音頻起始不同步的情況,及參考視頻中缺少特定關鍵詞的問題。圖結構:TANGO用有向圖結構來表示視頻幀(節點)和之間有效的轉換(邊)。給定目標音頻,系統提取時間特征,用時間特征檢索視頻播放路徑的一個子集。當原始參考視頻中不存在轉換邊時,用ACInterp生成平滑的過渡幀。TANGO的項目地址項目官網:pantomatrix.github.io/TANGOarXiv技術論文:https://arxiv.org/pdf/2410.04221在線體驗Demo:https://huggingface.co/spaces/H-Liu1997/TANGOTANGO的應用場景新聞廣播:生成與新聞稿同步的全身手勢視頻,提高新聞播報的自然度和觀眾的觀看體驗。虛擬YouTuber:為虛擬YouTuber創建與語音同步的全身動作視頻,增強粉絲的互動和參與感。在線教育:制作教育內容時,基于TANGO生成教師的全身手勢視頻,讓遠程教學更加生動和有效。企業培訓:在企業培訓視頻中加入與講解同步的手勢,提高學習材料的吸引力和信息的傳達效率。視頻會議:在視頻會議中,用TANGO生成的手勢視頻提升參與者的交流體驗,尤其是在遠程協作時。