Skywork-UniPic 模型核心能力包含:
圖文理解:基于 token 預測完成文本的自回歸建模
圖像生成:采用掩碼自回歸方式,逐步生成圖像 patch
圖像編輯:引入?yún)⒖紙D與編輯指令作為條件,生成編輯后的圖像
此外,Skywork-UniPic 完成端到端優(yōu)化流程,能夠實現(xiàn)生成、理解、編輯三大能力的協(xié)同訓練和相互促進,突破傳統(tǒng)方法中能力權衡的技術瓶頸。
這一架構設計不僅保持了自回歸模型的簡潔高效,更通過共享編碼器實現(xiàn)了跨任務的深度協(xié)同,為多模態(tài)統(tǒng)一模型的實用化部署奠定了堅實基礎。
用戶只需要輸入提示詞,Skywork-UniPic 既可以像 VLM 一樣理解圖像、像 T2I 模型一樣生成圖片,還可以像美圖工具一樣,一鍵實現(xiàn)風格轉繪/吉卜力化的編輯功能。
02
模型優(yōu)勢:1.5B 輕量級規(guī)模性能逼近同類大參數(shù)統(tǒng)一模型,詮釋了“小而美”的技術美學
團隊在追求模型能力極限的同時,也堅持效率重要性的設計理念。Skywork UniPic 以 1.5B 的緊湊參數(shù)規(guī)模,真正詮釋了“小而美”的技術美學:
多重技術亮點
指令遵循能力媲美大型模型:在 GenEval 指令遵循評估中取得 0.86 的優(yōu)異成績,超越了絕大多數(shù)同類統(tǒng)一模型,在無 CoT 的情況下取得了 SOTA 分數(shù),逼近較大模型 BAGEL(7B+7B*)帶 CoT 的 0.88 分;
復雜指令生圖能力領先:在 DPG-Bench 復雜指令生圖基準上達到 85.5 分的行業(yè) SOTA 水平;
圖像編輯能力統(tǒng)一模型第一梯隊:GEditBench-EN 獲得 5.83 分,ImgEdit-Bench 達到3.49分,展現(xiàn)出精準的編輯執(zhí)行能力;
參數(shù)效率優(yōu)勢顯著:相比同類大參數(shù)統(tǒng)一模型(如 BAGEL 的 14B 總參數(shù)、UniWorld-V1 的 19B 總參數(shù)),Skywork UniPic 以 1.5B 的輕量級規(guī)模實現(xiàn)了接近甚至超越大參數(shù)模型的性能表現(xiàn);
部署友好,真正可落地:模型在 RTX 4090 消費級顯卡上均可流暢運行,為廣大開發(fā)者和研究者提供了真正可落,地的統(tǒng)一模型解決方案,大幅降低了技術應用門檻。
03
Skywork-UniPic是怎樣煉成的?
?? 數(shù)據(jù)構建:億級高質量語料庫支撐統(tǒng)一模型預訓練
首先,Skywork UniPic 的卓越性能,并非源自數(shù)據(jù)堆疊的蠻力,而是得益于一套高度精煉、系統(tǒng)優(yōu)化的數(shù)據(jù)構建體系。
團隊突破了“更大即更強”的傳統(tǒng)認知邊界,通過約億級規(guī)模的精選預訓練語料與數(shù)百萬級任務精調(SFT)樣本,成功構建出一套面向理解、生成與編輯三大核心任務的高效能多模態(tài)訓練語料庫。
這一構建體系產(chǎn)生的語料庫不僅顯著壓縮了訓練資源成本,更在模型泛化能力與任務遷移表現(xiàn)上展現(xiàn)出驚人的性價比,充分驗證了小規(guī)模、精篩選、高質量數(shù)據(jù)對統(tǒng)一多模態(tài)模型訓練的可行性與潛力。
?? 獎勵模型構建:數(shù)據(jù)質量驅動的智能評估體系
其次,為了確保 Skywork UniPic 在圖像生成和編輯任務上的卓越表現(xiàn),我們設計了專用于圖像生成的Reward Model(Skywork-ImgReward)和專用于圖片編輯的Reward Model (Skywork-EditReward)。
其中,Skywork-ImgReward是基于強化學習訓練的Reward Model,相比于其他T2I Reward Model,Skywork-ImgReward在多個文生圖場景下的偏好選擇表現(xiàn)都更接近人類偏好。它不僅被用來作為文生圖數(shù)據(jù)質量的篩選,也可以在后續(xù)被用于圖像生成能力強化學習訓練中的獎勵信號,以及作為生成圖像的質量評估指標。
同時面對圖像編輯這一核心挑戰(zhàn),我們創(chuàng)新性地構建了具有針對性的Skywork-EditReward,其被用作數(shù)據(jù)質量評估時可以自動剔除超過30%的低質量編輯樣本,在 GEditBench-EN 和 ImgEdit-Bench 基準測試中表現(xiàn)明顯改善。后續(xù)同樣也可以被用作圖像編輯強化學習訓練中的獎勵信號,以及作為圖像編輯的質量評估指標。
?? 訓練體系優(yōu)化與策略提升
MAR訓練優(yōu)化體系:為提升模型表現(xiàn),我們采用了兩項關鍵優(yōu)化策略:首先,在數(shù)據(jù)層面引入覆蓋更廣視覺場景和類別的億級專有圖像數(shù)據(jù),顯著拓展了模型的學習空間。其次,訓練過程中采用漸進式分辨率提升策略,先在256×256分辨率下建立穩(wěn)定的底層特征抽取能力,再逐步遷移至512×512,以增強模型的語義理解和細粒度建模能力。
HARMON訓練優(yōu)化體系:為進一步提升模型性能并兼顧訓練效率,我們設計了多階段分層分辨率訓練機制。在第一階段,模型在512×512分辨率下進行微調,聚焦基礎特征提取的穩(wěn)定性與收斂性。隨后逐步提升輸入分辨率至1024×1024,促使模型更好地捕捉紋理、邊緣等高精度細節(jié)信息。
同時,我們采用分階段參數(shù)解凍策略,逐步釋放模型能力。在初始階段,僅訓練Projector模塊以實現(xiàn)視覺與語言特征的對齊,凍結主干網(wǎng)絡和LLM參數(shù);接著在保持LLM編碼器凍結的前提下優(yōu)化視覺主干;最后進入全量解凍階段,進行端到端聯(lián)合優(yōu)化,實現(xiàn)多模態(tài)協(xié)同增強。
漸進式多任務訓練策略:為解決理解、生成和編輯三類任務難以兼得的問題,我們提出漸進式多任務訓練機制。
訓練初期,模型先專注于單一任務(如文本生成圖像),待其收斂后再引入理解與編輯任務,按照由易到難的順序逐步增加任務復雜度,避免多任務早期相互干擾。在精細化階段,我們通過獎勵模型篩選構建高質量訓練數(shù)據(jù),采用動態(tài)閾值與多樣性采樣策略,確保樣本既具高置信度又具語義多樣性。
整體來看,以上策略在訓練過程中實現(xiàn)了結構合理的能力釋放和任務適應,顯著提升了模型在理解、生成和編輯等任務上的統(tǒng)一表現(xiàn),達成真正意義上的“一專多能”。
過去半年,昆侖萬維已經(jīng)開源了多個SOTA大模型,涵蓋獎勵模型、推理、軟件工程、多模態(tài)、空間智能等領域。今天,Skywork-UniPic 正式加入「Skywork」開源大家庭,讓AI真正成為每個人觸手可及的創(chuàng)意伙伴。
昆侖萬維開源系列
?? 更多 Skywork 系列開源模型,可查看:https://huggingface.co/Skywork