来源:AICG工具箱 责编:网络 时间:2025-05-01 15:26:16
?机器人舞蹈,大跳「机械舞」,但不是??波士顿动力的那种~??
机器人复刻迈克尔·杰克逊,竟然毫不逊色!?
这究竟是怎么回事?
原来,阿里又整出跳舞模型新活儿——全新的AI数字人像生成模型框架。新框架支持一键替换原视频当中的动态人物,并且完美还原原版舞蹈。
这款新模型名叫MotionShop,能够将识别的人像转换为3D影像,同时又不改变其他场景和人物。
我们再看一个,让漂亮的小姐姐教咱们的《原神》人气角色可莉扭腰姿。
让?小猪跟着师傅学打太极。
二次元虚拟偶像跳起了Kpop女团劲舞。
阿里新花活儿,目前支持免费体验。
看到这里,已经有人迫不及待打开了阿里的ModelScope魔搭社区试玩起来。不过确实承认,最近阿里的花活好多,手持国内最强算力就是有底气。
目前MotionShop支持在线生成,只需三步:
①上传视频
②框选视频当中需要替换的目标对象
③选择要替换的虚拟人物
实测后发现,需要注意以下几点:
首先上传的视频,尽量不要超过15秒,并且保证人物整体的完整性,而且不能存在断帧剪辑的情况。换句话说,原片素材需要一镜到底。
目前魔搭社区提供可替换的虚拟形象只有四款而已。
不过好在,这款模型后边还会继续升级体验,可玩性还会加强。最后就是比较漫长的排队等待时间,通常需要十来二十分钟。
MotionShop是如何实现视频生成的?
阿里人工智能研究团队提出了使用3D人物替换视频当中的角色的想法,可以将大大缩短视频内容转换的周期与效率。
整个内容生成转换框架由两部分组成:
①提取将人物抠图后,需要修复的视频背景进行处理
②将抠出来的人物生成3D动态影像所需要的静态帧
通过并行两条处理管线,再结合高性能的光线追踪渲染器工具,整个工作流结合下来,就可以将修复后的背景加入3D动态跳舞人物。
我们可以通过上边这个技术原理分解图,大致了解到,如何使得二次元人物临摹「科目三」舞蹈片,从而得到一段替换人物的跳舞视频。
阿里啊~阿里,这次彻底跟跳舞视频模型杠上了~!
感兴趣的家人们可以戳下方的地址进行体验:
https://modelscope.cn/studios/Damo_XR_Lab/motionshop/summary
Stable Diffusion 是一种基于扩散过程的图像生成模型,可以生成高质量、高分辨率的图像。它通过模拟扩散过程,将噪声图像逐渐转化为目标图像。这种模型具有较强的稳定性和可控性,可以生成具有多样化效果和良好视觉效果的图像
商汤科技最新升级的AI文生图领域的预训练模型——秒画Artist v0 3 5版本,三个月后迭代。审美水平和专业度上达到顶尖水平,福利值(免费)直接拉满
自从接触WPS AI,我终于体验到老板的快乐,将复杂重复的工作交给AI。AI处理表格数据的效果如何?下面带大家看看AI能力怎样为我们工作吧
关于Stable Diffusion的内容很多,在本篇教程里,我会先为你介绍Stable Diffusion模型的运行原理、发展历程和相较于其他AI绘图应用的区别。
中文多模态大模型SuperCLUE-V榜单发布丨Stability AI推出Stable Fast 3D模型丨Meta AI向好莱坞明星采买声音授权
科大讯飞星火大模型V1.5升级版首发测评:文本反馈疾速,一项指标“遥遥领先”
SD渲染脚本_核显怎么跑stable diffusion_SD
小白0基础教程:利用AI视频生成工具,批量制作视频,太爽哦
Midjourney 模型如何选择_怎么选择MJ模型
ChatGPT计划在年底将订阅费涨到22美元/月丨Llama 3.2发布:手机端侧可运行丨百度世界大会将于11月12日举行
字节跳动发布两款豆包系列视频模型丨ChatGPT「高级语音模式」功能全量上线丨「Apple智能」对存储空间要求进一步提高
ChatGPT将新增8种语音音色丨小米小爱音箱推送小爱大模型丨阿里通义Qwen2-VL视觉语言模型开源
快手发布文生视频大模型「可灵」丨广东高考首次启用AI智能巡考丨支付宝推出AI毛发自测工具
字节跳动试水AI硬件研发:重整人马聚焦教育赛道与智能可穿戴终端,两条产品线同时推进