做文员的网站知乎,天津seo排名收费,广州网站建设公,动漫制作专业主要学什么你敢信#xff0c;1张人物图片 1张动作动画#xff0c;就可以生成一段视频。网友直呼#xff1a;“主播/视频UP主可能快要下岗了#xff01;” #xff08;模型视频来源于网络#xff09;
本周#xff0c;字节跳动联合新加坡国立大学发布了一款开源项目 MagicAnimate1张人物图片 1张动作动画就可以生成一段视频。网友直呼“主播/视频UP主可能快要下岗了” 模型视频来源于网络
本周字节跳动联合新加坡国立大学发布了一款开源项目 MagicAnimate在GitHub开源网站上发布不到4天就收揽了 6.4k Star受到了一大批科技大佬和互联网从业者的关注并有网友在抖音上发布了试用效果简直杠杠的
接下来小编带大家一起来看一看这一款由字节跳动、新加坡国立大学合作研发的宝藏AI视频工具。
项目介绍
MagicAnimate 是一款使用扩散模型实现的时域一致的人体图像动画工具。 它可以通过对人体图像进行扩散模型的运算实现高质量、自然流畅的人体动画效果。MagicAnimate 具有高度的可控性和灵活性可以通过微调参数来实现不同的动画效果。
它适用于人体动画创作、虚拟角色设计等领域。
你可以可以采用任何具体人像的图像照片动作视频去生成一个具有自己风格的人物动作以下是网友采用网络上一张照片再加上跑步动作生成的。 效果图来源于网络
在线体验
官方团队在HuggingFace中开放了在线体验的模型Spaces。
模型在线体验地址https://huggingface.co/spaces/zcxu-eric/magicanimate 具体使用步骤也非常简单只需3个步骤即可 先上传一张静态人物图片 在上传想要生成的动作demo视频 最后调整参数点击“Animate”即可生成 本地搭建使用
如果想要在本地计算机搭建模型使用需要先下载以下 2 个预训练基础模型和 1 个MagicAnimate模型。 stable-diffusion-v1-5; sd-vae-ft-mse; MagicAnimate
Python 语言依赖需要python版本在3.8及以上, CUDA11.3, ffmpeg音视频处理工具
快捷安装命令
pip install -r requirements.txt在单个 GPU 上运行推理
bash scripts/animate.sh使用多个 GPU 运行推理
bash scripts/animate_dist.sh在单 GPU 上启动本地 gradio 演示
python3 -m demo.gradio_animate如果您有多个 GPU请启动本地 gradio 演示
python3 -m demo.gradio_animate_dist然后在本地浏览器中打开gradio demo即可体验。
总结
MagicAnimate 的主要应用领域
1、未知领域动画MagicAnimate可以为油画和电影角色等未知领域图像制作跑步或做瑜伽的动画。
2、结合T2I扩散模型将MagicAnimate与DALLE-3生成的参考图像结合制作各种动作的动画。
3、多人动画根据给定的运动为多个人制作动画。
MagicAnimate 产品的主要特色之一是它的高质量和自然流畅的动画效果。使用扩散模型处理人体图像能够生成逼真的人体动动效果使得动画更加栩栩如生。
另一个重要特点是MagicAnimate的可控性和灵活性。用户可以根据需要微调参数实现不同的动画效果使其适应不同的创作需求和风格。
与阿里的Animate Anyone相比画面质量人物一致性上、手部和面部动作 MagicAnimate 差一些但MagicAnimate支持多人。