关于AIGC人工智能、思维方式、知识拓展,能力提升等。投稿/合作: @inside1024_bot
藏师傅的 Seedance 2.0 测评和玩法来了!

绚丽的打斗和情节可能最近大家也看多了。

藏师傅整点能变现的,能在工作中用起来的玩法,全文在这里:https://mp.weixin.qq.com/s/c-FapnM7RQP9AE7m1sRQZQ

总结一下 13 个行业实战案例👇

======

Seedance 2.0 的三个核心能力

▸ 全能参考:支持 9 张图片+3 段视频+3 段音频+文字的任意组合输入

▸ 有智能:具备导演思维,会自己编排分镜、选镜头语言、控制叙事节奏

▸ 有知识:自带世界知识,知道兰州拉面怎么做、无印良品是什么调性、高位下拉练的是背阔肌

这三个能力意味着什么?你不需要在提示词里写分镜脚本,不需要详细描述每个动作,只需要告诉它你的意图就行。

======

案例 1:兰州拉面广告
提示词就一句话"生产一个精美高级的兰州拉面广告,注意分镜编排"。

我没写任何关于揉面、拉面、浇汤的描述,没说用慢动作拍面条,模型自己全部安排好了。它甚至选择了升格摄影来拍捞面的过程。

这就是"有知识"的体现——它知道拉面怎么做,自己安排了完整流程。

案例 2:无印良品品牌宣传片
提示词"帮我生成一个讲述无印良品这个品牌的宣传片",不提供任何品牌资料。

它自己选了极简风格画面(木质纹理特写、椅子设计、家居空间),自己写了品牌哲学口播词:"在品牌之前,是物品;在设计之前,是需求。去除多余,回归本质。"配乐选了极简钢琴。

模型完全理解了 MUJI 的品牌 DNA。以后甲方让你出 Demo 再也不怕了,改几个字几分钟一条。

案例 3:健身教学视频
提示词"帮我生成一个高位下拉健身动作的讲解视频"。

它准确识别了目标肌群(背阔肌),示范了正确姿势,还主动提醒常见错误("不要用身体的惯性借力"),自己安排了正面、背部特写、正面的多次镜头切换。

我问了我的教练,他说这个演示相当可以了。

这三个案例的提示词加起来不超过 30 个字。跟 Seedance 2.0 写提示词的核心:写意图,不写细节。

需要加分镜的话就只写"注意分镜编排",如果你不是影视行业专业人员,交给它肯定比自己写好。

======

案例 4:UI 设计稿变产品宣传片
前几天发的微软"油腻"风格产品 UI 宣传视频在推上、抖音、小红书都爆了。

核心思路:先用图像模型把朴素的 UI 截图处理成微软 Fluent 风格的 3D 质感图,再丢给 Seedance 2.0 生成宣传视频。

以前这种需要大量人力和算力 3D 渲染才能做,现在一键搞定。

而且这种风格完全不需要视频参考,文字描述就够了。"Fluent Design 亚克力玻璃质感"或"Apple Don't Blink 风格快闪",它都能理解。

涉及到产品发布、App Store 预览视频,设计稿截图丢进去几分钟出片,完全不用等动效排期,不是设计师都能干。

======

案例 5:服装换装展示
给它一张人脸照片和三件衣服的照片,让它给我一个上身效果展示。

它直接将三套服装依次展示,自动安排了中景全身、胸口标志特写、拉链特写、正面展示的镜头切换,配了动感电子音乐,剪辑卡点非常精准。

衣服的版型细节、材质细节和装饰(袖子部分)Seedance 2.0 还原的已经相当到位了。

每个 SKU 都拍得起视频了,不再只有主推款有。

======

案例 6:户型图变样板间参观视频
只用一张户型图,生成了一段沉浸式的样板间参观视频。

从玄关进入然后是 U 型厨房、干湿分离卫生间、客餐厅、主卧、次卧、观景阳台,正常的参观顺序。快速转场+多角度切换,配了温馨钢琴 BGM。

空间布局、各个区域和房间的相对位置都跟户型图是一致的。

核心思路:先用图像模型根据户型图生成九宫格分镜图,再把户型图和分镜图一起发给 Seedance 2.0。

更牛的是:Seedance 2.0 的参考真的很智能,原来分镜图上的文字标注都没有出现在最终视频中,它知道那些是参考信息不是内容。

户型图直接变沉浸式参观视频,客户不到现场就能"走一遍"样板间。

======

案例 7:照片变日常 Vlog
喜欢别人的 Vlog 剪辑风格,但自己只有照片没有视频?

随便找几张相册照片+一段参考 Vlog 视频,一起传上去。

它完美学习了参考 Vlog 的剪辑风格,把照片变成了完整的都市生活蒙太奇剪辑 Vlog。每个镜头配了 DAWN/RIDE/CITY 等 3D 文字弹出特效,硬切卡点配合吉他 BGM 节奏同步。

不过说实话,色彩表现、环境音和小动效这些对现在的 Seedance 2.0 还是有点吃力,希望下个版本会变好。

======

案例 8:视频播客
给 Seedance 2.0 一张我的照片和一段克隆过我声音的音频。

它给了一段非常真实而且有感情的视频播客片段。

更神奇的是:我原来生成的音频情绪有点平,我让它表现得激动一些,它居然真的办到了。说明它有修改和调整素材的能力。

图像保证人像一致性,音频保证声音一致性,我们想做多长都可以,还可以用 Agent 自动化。

现在对自媒体来说,不用出镜、不用剪辑。一段音频+一张形象图,就能出有镜头变化的视频播客。日更不再是体力活。

======

案例 9:纯音频生成爱情 MV
给它一段纯音频,让它生成符合氛围的故事情节视频。

提示词"为音频生成符合氛围的有点遗憾的爱情电影剧情,需要有情节,保持音频作为视频背景音乐,转场间画面风格及音乐节奏进行卡点"。

凭一段音乐,它自行创作了一个完整的火车站离别故事。里面用上了大光圈浅景深、特写、窗框转场等电影手法,画面节奏跟音乐还有卡点。

给一首歌,模型自己编故事、选镜头、卡节奏。

小技巧:如果不允许单独上传音频的话你可以上传一张透明或者纯白的 png 图片就行。

======

案例 10:真人动作迁移
这个是影视行业最该关注的能力。

我找了个家里不用的拖把,先当魔法扫帚,再当长枪,录了两段视频。

Seedance 2.0 成功保持了人物和动作的高度一致性,自动添加了巨龙、城堡爆炸、怪物等特效,配了魔幻管弦乐和音效。

有个细节值得说:骑扫帚那个一开始怎么都不行,因为飞行时人物相对摄影机是静止的、世界在运动。

我跟 AI 讨论了一下影视行业的专业术语,它给了我"CAMERA MOUNTED ON"和"LOCKED-ON SHOT"这两个关键词,加上以后果然好了。

以后类似的玩法搞不定也可以参考我的做法。

以前拍特效:绿幕→动捕→CG→合成,几十人几个月。现在手机拍一段动作参考,几分钟出预览。

======

案例 11:小说原文直接生成动画
这个最可怕。

直接把小说原文粘贴进去,一个字不改,Seedance 2.0 精准地生成了对应的视频。

加上几秒《雾山五行》动画做风格参考,故事情节和画面内容完美遵循小说文案,打斗风格、画面风格、人物笔触都非常好地参考了雾山五行,尤其是周围环境的水墨感觉太棒了。

而且 Seedance 2.0 支持视频延长,理论上你可以一直续拍。

只要提示词跟它这么说就行:"将视频延长 15s,具体信息为:XXXX",要求部分继续将后续的小说文本发给它就行。

画风、角色、音色全部保持一致。

这意味着什么?直接吃小说原文,IP 改编的概念视频几分钟出来,不用先写分镜脚本。理论上后面能做到短剧或者漫剧视频跟小说文本同步更新。

======

从"手动玩"到"自动化跑":Agent 才是终局

前面的案例都是我在网页端手动操作的。

但说实话,这个模型真正让我兴奋的地方不是"我能用它做什么",而是"AI 能用它做什么"。

一个有世界知识、能理解叙事、能吃生文本的视频模型,当它被 API 调用、被 Agent 编排的时候,会发生什么?

回顾一下我们前面的流程你就会发现,我的很多案例本身就是一套行业 Agent 方案。

产品宣传视频 Agent:产品发布后→Agent 读取产品更新内容→自动截图→调用图像模型和 Seedance 2.0 生成宣发视频。

自动化口播视频 Agent:Agent 自动收集热点信息→整理为文案→转换为口播音频→生成口播场景图→调用 Seedance 2.0 生成多段视频→Agent 拼接为长视频。

电商、家装甚至小说自动转漫剧其实都可以变为 Agent,内容生产能力和质量将会大幅提升。

即梦网页端适合个人创作者体验出活。但如果你是想做视频自动化的创业者、想给业务加上视频能力的开发者、想批量出内容的 MCN/电商团队,你需要 API。

Seedance 2.0 的 API 会在春节后上线火山引擎,支持全模态输入,可直接嵌入工作流和 Agent 管线。前面所有能力,全部可以程序化调用。

感兴趣可以去火山引擎体验中心体验。

Invalid media: video
Back to Top