来源:环球网
【环球网报道 记者 李文瑶】3月15日,腾讯和清华大学、香港科技大学联合推出全新图生视频模型Follow-Your-Click,基于输入模型的图片,只需点击对应区域,加上少量提示词,就可以让图片中原本静态的区域动起来,一键转换成视频。
视频加载中...
当前的图生视频大模型中,一般的生成方法不仅需要用户在提示词中描述运动区域,还需要提供运动指令的详细描述,过程较为复杂。另外,从生成的效果来看,现有图像生成视频技术在移动图像的指定部分上缺乏控制,生成的视频往往需要移动整个场景,而不是图像上的某一个区域,精准度和灵活性上有所欠缺。
为了解决这些问题,腾讯混元大模型团队、清华和港科大的联合项目组提出了更实用和可控的图像到视频生成模型Follow-Your-Click,带来更加便捷的交互,也让图片“一键点,万物动”成为现实。
图像到视频生成的技术在电影内容制作、增强现实、游戏制作以及广告等多个行业的AIGC应用上有着广泛前景,是2024年最热门的AI技术之一。
据了解,本联合项目组中的腾讯混元大模型团队,正在持续研究和探索多模态技术,该团队在模型架构设计、训练算法优化、大数据处理、硬件资源调配等方面拥有深厚的专业积累和丰富经验。此前,腾讯混元大模型作为技术合作伙伴,支持媒体打造原创视频《江山如此多娇》,生成中国大美河山的精美视频片段,展示出了较强的内容理解、逻辑推理和画面生成能力。
标题:腾讯联合清华、港科大推出图生视频大模型 可一键转换视频
地址:http://www.cdaudi4s.com/kongqinen/148508.html