新浪科技訊 11月27日下午消息,巨人巨人網(wǎng)絡(luò)AI Lab與清華大學(xué)SATLab、網(wǎng)絡(luò)西北工業(yè)大學(xué)聯(lián)合推出三項音視頻領(lǐng)域的布多多模態(tài)生成技術(shù)成果,相關(guān)研究成果將陸續(xù)在GitHub、模態(tài)HuggingFace等平臺開源。生成術(shù) 本次發(fā)布的新成三項研究成果——音樂驅(qū)動的視頻生成模型YingVideo-MV、零樣本歌聲轉(zhuǎn)換模型YingMusic-SVC與歌聲合成模型YingMusic-Singer,果相關(guān)技展現(xiàn)了團隊在音視頻多模態(tài)生成技術(shù)上的開源最新成果。 據(jù)悉,巨人YingVideo-MV模型實現(xiàn)“一段音樂加一張人物圖像”即可生成一個音樂視頻片段。網(wǎng)絡(luò)該模型能夠?qū)σ魳愤M行節(jié)奏、布多情緒與內(nèi)容結(jié)構(gòu)的模態(tài)多模態(tài)分析,從而使鏡頭運動與音樂的生成術(shù)高度同步,具備推、新成拉、果相關(guān)技搖、移等鏡頭語言,并通過長時序一致性機制,有效緩解了長視頻中常見的人物“畸變”與“跳幀”現(xiàn)象。 在音頻領(lǐng)域,YingMusic-SVC主打“真實歌曲可用”的零樣本歌聲轉(zhuǎn)換能力。它通過針對真實音樂場景的全面優(yōu)化,有效抑制了伴奏、和聲與混響對歌聲轉(zhuǎn)換的干擾,顯著降低了破音與高音失真的風(fēng)險,為高質(zhì)量的音樂再創(chuàng)作提供了穩(wěn)定的技術(shù)支撐。 而YingMusic-Singer歌聲合成模型則支持在給定旋律下輸入任意歌詞,即可生成發(fā)音清晰、旋律穩(wěn)定的自然歌聲。該模型的主要特點在于能夠靈活適應(yīng)不同長度的歌詞,并支持零樣本音色克隆,提升了AI演唱在創(chuàng)作過程中的靈活度與實用性,降低音樂創(chuàng)作的門檻。 |
疊紙回應(yīng)戀與深空賬號安全問題:未存在泄露情況上市公司花了1.25億元研發(fā)的仿制藥,上市申請被否!仿制對象已“翻車”:因安全性問題在歐美市場退市越買越漲,有人卻虧近40萬元!多名受害者出現(xiàn)西班牙首相:對以色列的武器禁運將繼續(xù)有效特朗普關(guān)稅由誰買單?高盛最新分析:美國消費者將負擔(dān)超五成成本為“殺夫”女人辯護的30年特朗普稱加沙?;饏f(xié)議第二階段談判“已經(jīng)開始”越買越漲,有人卻虧近40萬元!多名受害者出現(xiàn)法國政壇逐漸“日本化”北美觀察丨“暫時停薪”拖成“長期斷供” 美政府關(guān)門僵局難收場