7 月 4 日消息,今日,騰訊混元文生圖大模型(混元 DiT)宣布開(kāi)源小顯存版本,僅需 6G 顯存即可運(yùn)行,對(duì)使用個(gè)人電腦本地部署的開(kāi)發(fā)者十分友好,該版本與 LoRA、ControlNet 等插件,都已適配至 Diffusers 庫(kù);并新增對(duì) Kohya 圖形化界面的支持,讓開(kāi)發(fā)者可以低門檻地訓(xùn)練個(gè)性化 LoRA 模型;同時(shí),混元 DiT 模型升級(jí)至 1.2 版本,在圖片質(zhì)感與構(gòu)圖方面均有所提升。
此外,騰訊宣布混元文生圖打標(biāo)模型”混元 Captioner“正式對(duì)外開(kāi)源。該模型支持中英文雙語(yǔ),針對(duì)文生圖場(chǎng)景進(jìn)行專門優(yōu)化,可幫助開(kāi)發(fā)者快速制作高質(zhì)量的文生圖數(shù)據(jù)集。
騰訊混元 DiT 模型宣布了三大更新:推出小顯存版本與 Kohya 訓(xùn)練界面,并升級(jí)至1.2版本,進(jìn)一步降低使用門檻的同時(shí)提升圖片質(zhì)量。
基于 DiT 架構(gòu)的文生圖模型生成圖片質(zhì)感更佳,但對(duì)顯存的要求卻非常高,讓許多開(kāi)發(fā)者望而卻步。這也是新版本 Stable Diffusion 模型無(wú)法快速普及的原因之一。
在提升模型易用性的同時(shí),騰訊混元團(tuán)隊(duì)也在開(kāi)放更多的關(guān)鍵技術(shù),包括此前的訓(xùn)練代碼,最新的打標(biāo)模型混元 Captioner。
本文鏈接:http://www.zh1234.com/news11800.html騰訊混元DiT再升級(jí):推出6G小顯存版本