3 月 19 日消息,科技媒体 WinBuzzer 昨日(3 月 18 日)发布博文,报道称 Stability AI 发布了一款名为 Stable Virtual Camera 的人工智能模型,它能将静态图像转化为沉浸式的 3D 视频。
与传统的 3D 动画工具不同,该模型无需复杂的场景建模,利用 AI 驱动的扩散技术,即可创造出逼真的相机运动和深度效果。该模型目前以研究许可的形式提供,标志着 AI 生成视频能力的进一步扩展。
援引博文介绍,用户只需要输入 1 张图片(最多可以 32 张),即可生成预设或自定义的相机运动效果。该工具提供 14 种预设运动路径,包括 360°、8 字形、螺旋、滑轨变焦、移动、摇摄和翻滚等,并兼容正方形(1:1)、竖屏(9:16)和横屏(16:9)等格式。
虽然 Stable Virtual Camera 功能强大,但也存在一些局限性。Stability AI 承认,该模型在处理复杂场景、不规则物体、水面、反射以及精细的人体细节时,可能会出现闪烁伪影和不一致的情况。
此外,目前该模型仅供研究使用,尚未开放商业应用。代码已在 GitHub 上开源,模型权重托管在 Hugging Face 上。
该内容转自IT之家
本文共 314 个字数,平均阅读时长 ≈ 1分钟
喜欢就支持一下吧
本站为个人博客,博客所发布的一切破解补丁、注册机和注册信息及软件的文章仅限用于学习和研究目的。
不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。
本站信息来自网络,版权争议与本站无关,您必须在下载后的24个小时之内从您的电脑中彻底删除上述内容。
访问和下载本站内容,说明您已同意上述条款。
本站不贩卖软件,所有内容不作为商业行为。如果有侵犯您的权益请点击“关于”联系WFXL,核实后会及时删除
版权属于:新闻发布
作品采用《署名-非商业性使用-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0)》许可协议授权
评论 抢沙发