动漫风格迁移AnimeGANv2,发布线上运行Demo
2021-11-17 【 字体:大 中 小 】
内容一览:最强二次元风格迁移模型 AnimeGAN 更新啦,现在可以在线上轻松运行模型,还可以调整风格参数,输出你想要的照片效果。
关键词:风格迁移 机器视觉 二次元
AnimeGANv2 最近发布了一项更新,由社区贡献者开发,通过 Gradio 实现了一个可以在线运行的 Demo,发布在 huggingface 上。
访问
https://huggingface.co/spaces/akhaliq/AnimeGANv2
即可在线上轻松实现 AnimeGANv2的处理效果(仅支持静态图片处理)。
AnimeGAN:三次元通通变二
AnimeGAN 是基于 CartoonGAN 的改进,并提出了一个更加轻量级的生成器架构,2019 年 AnimeGAN 首次开源便以不凡的效果引发了热议。
AnimeGANv2 线上测试效果
在初始版本发布时的论文《AnimeGAN: a novel lightweight GAN for photo animation》中还提出了三个全新的损失函数,用于提升风格化的动漫视觉效果。
这三个损失函数分别是:灰度风格损失,灰度对抗损失、颜色重建损失。
AnimeGAN 与其他动漫风格迁移模型的效果对比
去年九月发布的 AnimeGANv2 优化了模型效果,解决了 AnimeGAN 初始版本中的一些问题。
在 v2 中还新增了新海诚、宫崎骏、今敏三位漫画家漫画风格的训练数据集。
AnimeGAN 初代模型运行效果
AnimeGANv2 模型运行效果
以马斯克为例,AnimeGAN 初代的效果已经很令人惊艳,只是太过于白嫩病娇,仿佛韩国男团成员。相比之下,v2 更加自然,也更贴合真实气质。
AnimeGANv2 的更新重点:
- 解决了生成的图像中高频伪影的问题;
- v2 更易于训练,并能直接达到论文所述的效果;
- 进一步减少生成器网络的参数数量。(生成器大小 8.17Mb);
- 加入更多高质量影像数据。
风景建筑图片 AnimeGANv2 模型运行效果
项目信息
TensorFlow 版本环境配置要求
python 3.6
tensorflow-gpu
tensorflow-gpu 1.8.0 (ubuntu, GPU 1080Ti or Titan xp, cuda 9.0, cudnn 7.1.3)
tensorflow-gpu 1.15.0 (ubuntu, GPU 2080Ti, cuda 10.0.130, cudnn 7.6.0)
opencv
tqdm
numpy
glob
argparse
PyTorch 实现
https://openbayes.com/console/open-tutorials/containers/pROHrRgKItf
本文来自微信公众号“HyperAI超神经”(ID:HyperAI),作者:神经星星,36氪经授权发布。

猜你喜欢

最怕社区团购死去的是谁?


互联网寒冬,谁在围剿喜马拉雅?


对话Apple联合创始人沃兹尼亚克:创新是世界新奇有趣的核心


这个畅销了10年的机制,为什么在移动端一直没有爆款?


买家秀和卖家秀?特斯拉Cybertruck量产版首次亮相:多处细节调整


周期饶过谁?台积电不会一直「赢」


体感的力量,从抖音到新荣记


罗永浩又宣布创业!VC评估:风险比锤子大


这个提高效率的技巧,真希望我年轻时能知道


月入10万,那些后浪创造的冷门新职业有多赚?


开公司前期最重要的三要素!!!


阿里前端第一人AI创业首秀,要做全球内容创作者的GitHub,公司俩月估值过亿,5k人排队内测

设计一套成就系统,让生活像游戏一样好玩


向版权流氓说再见,微信公众号上线AI配图功能

教老外认花花草草,就能月入8000万?

最招恨的“劣迹网红”:暴揍老头,年入5亿

抖音爆火的“拆盲盒”直播,是如何将昂贵的废品卖给消费者的?

低至4元的柠檬水,凭什么赚钱?

2分钟找到契合你的小众市场

牙齿正畸这门生意,也到了出海时代