国产一区二区av I 日韩资源 I 久久免费视频观看 I 亚洲性网 I 校园春色av I 97香蕉视频 I 女性高潮视频 I 少妇性l交大片7724com I 国产三级精品视频 I 精品免费av I 被两个男人吃奶三p爽文 I 欧美三级视频在线 I 动漫羞羞 I 午夜影院免费试看 I 99色网站 I 国产视频xxx I 免费看日韩 I 亚洲品质自拍视频 I av中文在线播放 I 卡一卡二av I 手机在线不卡av I 18视频在线观看娇喘 I 国产日产欧美一区二区 I 私密按摩massagexxx I 久久一区 I 色先锋av I 久久精品福利 I 91免费福利

您現在的位置:首頁 > 資訊 > 國內 > 正文

GAN卷土重來:10億參數的GigaGAN效果堪比擴散模型_環球簡訊

時間:2023-06-16 14:53:13    來源:程序員客棧    


(資料圖片僅供參考)

點藍色字關注“機器學習算法工程師”

設為星標,干貨直達!

自從 DALL·E 2 之后,在圖像生成方面擴散模型替代GAN成了主流方向,比如開源的文生圖模型stable diffusion也是基于diffusion架構的。近日, Adobe研究者在論文Scaling up GANs for Text-to-Image Synthesis提出了參數量為10億(1B)的GAN模型:GigaGAN,其在文生圖效果上接近擴散模型效果,而且推理速度更快,生成512x512大小圖像只需要0.13s,生成16M像素圖像只需要 3.66s。同時GigaGAN也支持latent空間的編輯功能,比如latent插值,風格混合,以及向量運算等。

GigaGAN改進了StyleGAN架構,采用兩階段訓練策略:一個是64x64的圖像生成器和一個512x512的圖像超分2器,其圖像生成器架構如下所示(這里也是采用CLIP text encoder來引入text condition):GigaGAN在 LAION2B-en和 COYO-700M數據集上訓練,其在COCO數據集上的FID達到9.09,超過stable diffusion 1.5,推理速度比stable diffusion快20倍多(2.9s vs 0.13s):GigaGAN除了文生圖能力,還可以實現可控的合成,比如風格混合,如下圖所示:更多效果圖和技術細節見論文https://arxiv.org/abs/2303.05511和網站https://mingukkang.github.io/GigaGAN/
關鍵詞:
相關新聞

最近更新

凡本網注明“XXX(非汪清新聞網)提供”的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和其真實性負責。

特別關注