Seedance 2.0着实恐怖了些
这个周末,字节跳动的新视频生成模型在全网被炒得沸沸扬扬。“杀死比赛”、“效果爆炸”等AI时代已经被用烂了的词瞬间又飘得满屏都是。有人说,字节的Seedance 2.0可能会是继Google的Veo 3和OpenAI的Sora 2之后的又一款革命性、里程碑式的AI视频生成产品。正当我怀疑这些司空见惯的说法,是不是年前AI企业引流的又一次概念炒作时,知名B站UP主“影视飓风”凌晨一点发布的一条视频给出了一个确切的答案:Seedance 2.0的能力强到有些恐怖。01 强者,无需多言先来看看官方文档中给出的一些视频demo:
提示词:男人提示词:在“猫狗吐槽间”里的一段吐槽对话,要求情感丰沛,符合脱口秀表演:喵酱(猫主持,舔毛翻眼):"家人们谁懂啊,我身边这位,每天除了摇尾巴、拆沙发,就只会用那种“我超乖求摸摸”的眼神骗人类零食,明明拆家的时候比谁都凶,还好意思叫旺仔,我看叫“旺拆”还差不多哈哈哈“旺仔(狗主持,歪头晃尾巴):"你还好意思说我?你每天睡18个小时,醒了就蹭人类腿要罐头,掉毛掉得人类黑衣服上全是你的毛,人家扫完地,你转身又在沙发上滚一圈,还好意思装高冷贵族?"除此之外,“影视飓风”发布的视频中还展示了蜜雪冰城的雪人大战外企咖啡店机器人、奥特曼打怪兽、功夫高手以一敌多、女运动员长跑和拳击的商业短片等场景,伴随着流畅的视觉效果和毫无破绽的多角度运镜。发布仅仅两天,就已经让各大专业影评人赞不绝口、让普通用户忘记了AI视频生成的边界。在字节发布的Seedance 2.0文档中,研究团队用很克制的语言描述了惊人的技术突破:物理规律更合理、动作更流畅、多模态参考能力支持文本、图片、音频和视频的自由组合。针对以往视频生成的难题,Seedance 2.0也做了针对性的优化:用户可以通过上传参考视频实现高难可控的运镜和精准的动作复刻,在一致性提升的基础上实现视频延长、音乐卡点、多语言配音、创意剧情补全等使用功能。若是从眼光将3D世界转向2D动画,Seedance 2.0则能给出更多惊喜:它能将漫画分镜自动转变为动画,能识别2D角色的眼睛、头发、服饰为独立可动的图层,避免早期AI将平面图像误判为伪3D的问题。一时间,AI圈沸腾了:民用级视频生成即将跨越临界点,技术执行问题已经被解决,摆在人们面前的已经是创作决策问题。不过,技术的高光时刻,背后往往伴随着阴影。02 令人不安的“巧合”见识过Seedance 2.0的强大后,“影视飓风”视频的后半段却给出了一个奇怪的案例:出镜者Tim将自己的脸部照片和提示词一并上传给模型,模型自然返回了一段以他为主角的AI科普视频。可是,视频中出现的不仅有他的形象,还有和他几乎一样的声音。而在一段实景视频中,背景中的建筑更是与他的公司大楼极其相似。更诡异的是,评论区里还有一位测试者,同样只提供了脸部照片并要求模型生成夜跑场景。结果画面中的人物,穿着这位测试者上周刚买的跑鞋,连颜色和鞋款版型都分毫不差,尽管他没在提示词中透露任何相关信息。作为技术爱好者,我坚定认为这不是什么“灵异现象”。于是,我马上去仔细读了一遍字节发布的文档,官方的解释是这样的:模型展现出了此类能力可归因于“多模态参考”和“一致性提升”。“多模态参考”指模型能够同时解析图像、音频等异构数据,实现跨模态特征对齐。“一致性提升”则依赖对海量视频中人物、物体、场景共现规律的统计学习。从纯理论角度上来说,模型能够生成与Tim和那位测试者极其相像的视频并非不可能,因为它在问世之前已经见过足够多“人脸+声音+服饰+环境”的组合样本。不过,理论层面上的合理恐怕无法消解个人体验的不适。如果AI真的能在毫无明确提示的情况下猜中跑鞋,则必然是获取到了购买记录等相关信息;能够准确模拟声音和建筑,则证明它已经多次欣赏过Tim拍摄的相关视频。这种精准虽然令人瞠目结舌,但也早已超越统计概率的舒适区间,带给人们一个不安的猜想:我们的生活,是否早已成为训练数据中的一部分?答案是肯定的。因为抖音的用户服务协议中早已写明: “全球范围内、免费、非独家、可多层次再许可的权利”这个表述,或多或少体现出了一定的模糊性。我们无从得知这里面是否包括AI模型的自动化训练,但可以确信的是,人们的生活切片正在被用于构建“复制自己”的生成模型。评论区里充斥着不满的呼声:“谁还敢在社交平台分享生活?”这并非过度恐慌,而是人们潜意识中数据主权意识开始逐渐觉醒。我们早已习惯技术带来的便利,却总是无视数据控制权的悄然流失。03 创作的末路:创意被算法稀释Seedance 2.0突如其来的技术冲击,受到影响的可远远不止人们的日常生活。由此变得支离破碎的,还有创作者的精神世界。短短9分钟的视频,评论区却体现出人生百态。一位自由画师写下留言:“我被迫使用AI工作流进行创作,却丝毫感受不到任何快乐,因为我只是在重复生图、拼接、再生图的流程。在我的认知中,它根本不是我的作品,因为我没有参与任何细节的推导。”这位画师怀念的不仅是绘画技术本身,更是人们参与艺术创作过程时身临其境的感受。每一处细节的反复推敲和修改、委托人收到作品时表现出的认同和喜爱、自我价值的实现,这些充分体现艺术创作内在价值的时刻,不该由“提示词→生成→筛选”的流程所替换。而作为程序员,我也深有体会。刚上大学接触专业课的那段时间,一个课程设计会让全班大部分同学焦头烂额。从数据结构,到运行逻辑,再到UI界面设计,初出茅庐的新生们少则几周,多则一个月,才能完成一个基础功能完备,界面谈不上多美观的小应用。那种运行上百遍,最后一次终于不报错成功运行的释怀感,我已经很久没有感受过了,因为这些任务在AI眼里,都是仅需几分钟即可完成的东西。科技进步利好了人类,但也让以前需要经年累月积累的专业壁垒加速瓦解。无论是哪个行业的从业者,看到自己辛苦学了多年的知识和技术被轻轻松松实现和超越,都难免因为“努力贬值”而感到失落。更深层的忧虑来自于行业结构的极端化。米哈游创始人蔡浩宇曾经给出过一个有点夸张的预言:AI时代,游戏创作将只属于两类人——0.0001%的顶级专业团队能创造出前所未有的游戏作品,99%的业余爱好者可以根据自己的喜好自由创作游戏。其余的开发者,建议转行。这个预言能否成真并不重要,但Seedance 2.0的创作能力与之描述的如出一辙。当AI能够轻松复刻电影级别的运镜和情绪演绎,创作就会被算法系统性地结构,而不再是人类独有的优势。强大的工具已经发到了每个人的手上,但面对“费半天劲做出来的东西还不如AI”的质问时,我却不知道该如何回答。04 从“技术改变生活”到“生活改变技术”开篇那句“技术执行问题已经被解决,摆在人们面前的已经是创作决策问题”,至此得以解释。人们已经无需担心“AI能不能做出视频”,只需要判断“哪条AI生成的视频更好”,再把选择反馈给AI,即可完成多模态数据的流动闭环。在无数次循环往复中,AI不仅仅能生成内容,还将学会定义何为“优质创意”、筛选出适合指定风格视频的用户。如此一来,人类就从创作的主体变成了被算法评估的客体。我很认同评论区的一句话:当AI能够轻松实现所有人的“创意”,甚至是复刻人类自己,创意就会失去价值,个体将反过来变成AI挑选的对象。技术不再服务于人,而是重构人的价值观,这种虚无感实在有些令人不寒而栗。Seedance 2.0的发布实则是AIGC技术从工具向价值的一次越界尝试。它不再局限于按部就班地执行用户指令,而是开始试图理解和复现人类创作中难以用言语准确表达的特质,像是情绪的变化、风格的延续或是跨模态的隐喻关联。这种能力的跃迁值得所有人肯定,但也请不要忘记,跃迁所需要的能量正是来自于我们日常生活中的点点滴滴。“技术改变生活”,这是一句数字时代以来流传了很久的乐观叙事。但Seedance 2.0的技术演进似乎在暗示:生活正在以我们难以察觉的方式改变着技术。面容、声音、消费记录和社交痕迹都开始成为算法的养料,但数据主权意识和制度保障尚未完全建立。技术并无善恶之分,但数据的流向决定了权力的归属。人类是否还有自己数据的最终解释权,取决于AI时代“创作”这个词的定义:它可以是算法对生活的精准复刻,也可以是人类意志的无限延伸。Seedance 2.0正在让所有人都直面一个根本问题:是否愿意用生活的全部细节,来交换技术的无限便利?对如此强大的视频生成能力,我们似乎没有拒绝使用的理由。而面对如此快速的技术演进,不知道我们是否还能有拒绝使用的权利。


