展會(huì)信息港展會(huì)大全

OpenAI 公布 AI 文生圖“sCM”,號(hào)稱效率是傳統(tǒng)擴(kuò)散模型 50 倍
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-10-27 18:50:42   瀏覽:2061次  

導(dǎo)讀:IT之家 10 月 27 日消息,OpenAI 本周公布了一款名為 sCM(Continuous-Time Consistency Model)的新型 AI 文生圖方案。 與傳統(tǒng)的擴(kuò)散模型相比,sCM 僅需兩個(gè)步驟即可生成高質(zhì)量樣本, 號(hào)稱能夠?qū)⑽纳鷪D效率提升約 50 倍,且生成的樣本質(zhì)量能與業(yè)界較強(qiáng)的擴(kuò)...

IT之家 10 月 27 日消息,OpenAI 本周公布了一款名為 sCM(Continuous-Time Consistency Model)的新型 AI 文生圖方案。

與傳統(tǒng)的擴(kuò)散模型相比,sCM 僅需兩個(gè)步驟即可生成高質(zhì)量樣本,號(hào)稱能夠?qū)⑽纳鷪D效率提升約 50 倍,且生成的樣本質(zhì)量能與“業(yè)界較強(qiáng)的擴(kuò)散模型”相比較,為 AI 文生圖提供了新的方案。

OpenAI 公布 AI 文生圖“sCM”,號(hào)稱效率是傳統(tǒng)擴(kuò)散模型 50 倍

目前業(yè)界通常使用擴(kuò)散模型生成圖片及音視頻,但傳統(tǒng)擴(kuò)散模型的取樣過(guò)程通常緩慢,通常需要數(shù)十到數(shù)百個(gè)逐步降噪的過(guò)程才能生成高質(zhì)量樣本(例如小伙伴們使用SD“煉丹”繪圖就需要等待特別長(zhǎng)的降噪時(shí)間),這使得相應(yīng)模型效率低下,不適合商業(yè)化應(yīng)用。

雖然目前業(yè)界已出現(xiàn)一些技術(shù)以加快擴(kuò)散模型的速度,但無(wú)非只是利用復(fù)雜訓(xùn)練過(guò)程“提純”模型,或通過(guò)降低輸出樣本質(zhì)量下降以提升效率。

而OpenAI 研究團(tuán)隊(duì)則提出了一種名為 sCM 的文生圖方案,這一生成模型方法繞開(kāi)了傳統(tǒng)擴(kuò)散模型范疇,號(hào)稱僅需兩個(gè)取樣步驟即可生成與擴(kuò)散模型質(zhì)量相當(dāng)?shù)母叻直媛蕵颖,極大縮短了生成時(shí)間。

OpenAI 公布 AI 文生圖“sCM”,號(hào)稱效率是傳統(tǒng)擴(kuò)散模型 50 倍

IT之家獲悉,sCM 訓(xùn)練方法主要利用預(yù)訓(xùn)練擴(kuò)散模型蒸餾出來(lái)的知識(shí)直接打造模型,號(hào)稱能夠在縮短取樣時(shí)間的同時(shí)保持高質(zhì)量樣本生成。

OpenAI 公布 AI 文生圖“sCM”,號(hào)稱效率是傳統(tǒng)擴(kuò)散模型 50 倍

▲ 通過(guò) sCM 方案訓(xùn)練的模型生成的圖片研究人員使用 ImageNet 512x512 數(shù)據(jù)集,利用 sCM 方法訓(xùn)練模型,號(hào)稱能夠生成細(xì)節(jié)豐富且高質(zhì)量的圖像,展示其在高分辨率生成方面的能力。盡管 sCM 只有兩個(gè)取樣步驟,生成樣本的質(zhì)量仍接近業(yè)界“最佳的擴(kuò)散模型”,號(hào)稱“差異不到 10%”。

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港