大家先看一段VCR:
你可能觉得,这不就是一个普通的宣传片吗?
但我告诉你,这个视频的整个制作过程,没有人盯着屏幕点鼠标,没有人手动拖素材,全程人类参与的只是说了一句:“能复刻这个视频,给我的产品Lib耳机做一个宣传片吗?”
然后,一个 AI Agent 就开始自己疯狂连节点、调模型、剪片子。
几分钟后,一支带分镜、带配乐的完整产品宣传片直接甩在了屏幕上。
不知道你们作何感想,反正我看完是倒吸一口凉气。
现在网上的“AI 电影大神”满天飞,天天拿各种牛逼轰轰的视频糊我们一脸,看着确实唬人。
但大家伙如果真自己上手去用现阶段那些主流的 AI 视频生成工具,绝对会忍不住疯狂吐槽:
首先就是流程碎成渣:
你写脚本得找一家合适的大模型吧;
生成完脚本又得去换个网站生成图片吧;
再想把这些图片变成视频又得再找一个工具吧;
最后你要把所有视频整合剪辑成成片,还得掏出剪映、PR们;
万一碰到审片的要改个镜头,几乎就是得重新再来一次。。。
不仅如此,整个视频制作流程很严重的问题就是开盲盒,你同一段提示词,做出来的东西完全不受控制,第一次出来主角是吴彦祖,第二次就成小黑胖了,再过了几个镜头,彻底成赵四了。
虽然现在不至于像当年威尔-史密斯吃面那么抽象,但一致性依旧是难题
为了让视频搞定这些问题,你就得花更多的钱,找出几段看着合适的。
一帧勉强能用的画面背后,可能是几十上百张废稿,每一张都要消耗积分,每一张都在往外掏钱。
这还是个非常消耗脑力和精神的事,有的时候我真的挺佩服那些AI大片的制作者,实在难以想象在制作过程中,看了多少奇行种,承受了多少心理压力。
归根结底,AI 视频这件事到今天依旧是一个,看别人做挺酷,自己做巨痛苦的状态。
那有没有人在认真解决这个问题?
有的,兄弟,包有的,今天差评君就给大家安利一个狠角色:LibTV。
它们号称是现阶段最适合专业创作者和 Agent 的AI视频工具。
适合创作者咱们好理解,适合Agent是何意味呢?
说起来,我们和LibTV算是老朋友了,因为LibTV 是 LiblibAI 最新推出的 AI 视频创作平台,而咱们之前给大家介绍过的那个极其好用的 AI 绘画工具 Lovart,是一家人,所以咱们凭着这层关系,也是捞着了优先内测的机会。
LiblibAI 本身在 AI 图像领域深耕多年,积累了大量模型资源和创作者社区,有着这一层能力保障,咱们对他家的视频工具,也是相当期待的。
LibTV的人也告诉咱们,他们可不是从零起步,而是把已有的弹药全都押进来了,所以内部号称是现阶段最适合专业创作者和 Agent 的AI视频工具。
那这个LibTV和市面上这些AI视频生成软件,有什么区别呢?
其实只要打开 LibTV,你就有很明显的感知。
因为它既没有传统时间轴,也不是单纯导入素材的界面,而是一块无限延展的画布。
你可以在上面自由放置五种节点:文本、图片、视频、音频、脚本。所有节点都能自由拖拽、连线,搭成一条完整的工作流。
举个具体的场景: 你在做一支 30 秒的产品广告。 画布左边,是一列角色设定文本; 中间,是根据设定一键生成的人物三视图和场景图; 右边,是根据这些图跑出来的视频片段; 下方,是一条全局旁白脚本和几条备选配乐。
这些东西同时存在于一张画布上,你抬眼就能看到整个项目的全貌。
这可不是什么花架子,对一个真正在做视频的人来说,能把剧本、分镜、素材、剪辑放在同一个地方,不用来回切换,本身就省掉了大量无意义消耗。
除了流程切换省事,LibTV还一口气上线了20多个专业视频创作功能,我随便捡 3 个独家亮点给大家展开讲讲。
第一个就是角色三视图生成,在AI视频里最让人头疼抓狂的就是主角总在悄悄换脸,明明是同一个角色,上一帧是这张脸,下一帧就飘移了,发色变了,五官比例也不对了。
而在用上了LibTV 的角色三视图功能,能直接给角色生成正面、侧面、背面三张定妆照。
把角色设定"钉死",后续所有镜头都参照这套设定生成,角色就不会从吴彦祖变成赵四了,根本性上解决了AI视频最基础的连贯性问题。
另一边,LibTV还引入了9/25宫格分镜生成,在很多影视剧里,分镜拍摄、处理是成片非常关键的一环,镜头怎么切、机位怎么调、视角如何变,往往都要在分镜阶段提前规划,然后进行拍摄,最后挑出想要的分镜。
但有了AI生成,似乎这些操作显得呆呆的。
因为在 LibTV 里,一句话就能生成 9 宫格或 25 宫格的分镜图,它能根据你的场景描述,生成一套完整的机位调度方案,最终怎么用,不再靠想象,而是直接有具体的对比参考了。
我们的感觉就像是,以前需要开会讨论决定的东西,直接提前可视化了,这种爽感后期同事都叫好。
有了这些功能,创作者不再是苦哈哈地生成单个画面,而是可以真正在一块画布上,通过拖拽节点,把剧本、分镜、生成、配乐组织成一整套视频创作流程。
当然,这些可能都还是开胃菜,更让我感觉时代变了的就是LibTV,对最近大热的小龙虾们,做了非常丝滑的接入。
我们可以直接通过OpenClaw,调用LibTV的能力。
文章开头那个震撼的视频,就是官方给出的实战效果。
操作极其简单:你在聊天框里扔一个参考视频和一句提示词,Agent 就能在背后帮你调用 LibTV 的 Skill,自动完成剧本生成、分镜设计、调用视频模型,最后把成片端给你。
由于时间比较紧,咱也简单操作了一下,让OpenClaw调用LibTV,直接生成一个“小蝌蚪找妈妈”的动漫。
我全程只说了这么一句话,结果你别说,还真挺像那么回事,
从每个角色的三视图定模型,到脚本分镜拆解,再到配音和剧情串联,基本每个步骤都做对了。
而且速度还不慢,反正我一把海克斯乱斗打完了(当然,没人抽到板眼杰斯),它已经成片了。
我这也把最终成片贴上来给大家看看,虽然完全脱离人工后,它的视频还是有些小瑕疵,主要是在配音合成上,但我们进画布上看,所有音频的生成是正确的,不过这更像是内测阶段的常态。
但这种程度,人工介入修改、重新抽卡整合,也肯定比从头开始快多了。
咱再多说几句嗷,大家看我们聊下来,光顾着给大家讲LibTV有多智能、有多省事,就以为只是给小白快速出片的。
这还真不是,我们这么短时间体验下来,感受最深的就是:上手确实简单,但专业度相当牛。
比如当你对 AI 自动生成的画面、脚本不满意时,你可以随时切入进行深度微调。
每个画面都能单独进行精准剪辑、视频解析、高清化增强。
针对单个镜头,你甚至能直接进行镜头控制和打光切换。
聊到这,你可能会觉得,这么一套把电影工业流水线搬上网页、还带 API 双开门的专业级工具,不得按秒收你个大几十块?
但 LibTV 这次直接杀红了眼,定价极其夸张:
年卡最低能达到3.9折,部分模型支持最低约 6 折的额外优惠,叠加下来相当于只有 2 折多。
和市面上的一些同类型的软件相比,会员价便宜了近8成,模型的积分更是只有十分之一的价格。
同样的积分预算,在某些竞品平台能生成 10 段视频,在 LibTV 可能能生成 80 段甚至更多。
这意味着你能大量试错,能真的跑出好作品,而不是省着点用,差不多就行了。
说到底,创作这件事,特别是AI创作,本质上是一个概率游戏,尝试次数越多,出精品的概率就越高,价格打下来,才是真的把创作权、选择机会还给了创作者。
盘到这里,大家应该能看懂 LibTV 到底想干嘛了。
以前我们聊 AI 视频工具,大家都在卷谁的模型参数大、谁生成的画面更精美,但 LibTV 玩了一把降维打击:它不跟你卷单点技术,它直接把电影工业流水线给搬到了网页上。
但最让我感慨的,其实是它那个给 Agent 留的“双开门”设计。
过去这二十年,所有的软件都在挖空心思研究怎么让人类点鼠标、动手指更爽;但从 LibTV 开始,软件长出了第二扇门——这扇门,是专门留给 AI 的。
我们预感,未来的软件一定会迎来颠覆性的交互设计:一方面是让人与 AI 的互动更简洁;另一方面,就是让 AI 操控软件变得更简单、更高效。
这背后其实是一个对未来的预测,在LibTV看来,人机协作真正的模式必然是人类负责选择和审美,AI 负责执行和扩展,说白了就是你来决定这个视频要什么感觉,Agent 搞定复杂、程序化的“节点连线”和苦力活,帮你把它跑出来。
既然是一体两面,那就不应该顾此失彼,这不是一个功能升级,这是产品逻辑的一次换代。
LibTV 自己也说,现在还是内测,真正的大功能没有全放出来,但就现在这个状态,我们觉得这个方向是对的。
所以,别焦虑了兄弟们,未来的创作或许压根不需要你熬夜爆肝,你只是那个坐在监视器后面的赛博大导演。
但这事儿也有个坏处——当技术不再是门槛,当流程不再是借口,你以后要是再做不出好片子,恐怕只能承认,是咱们自己的审美和创意,真的不行了。
哦对了,如果有想尝试的差友们点击下面的链接即可直达:
人类差友这边请:https://www.liblib.tv/
AI差友可入此门:github:https://github.com/libtv-labs/libtv-skills
撰文:八戒
编辑:江江 & 面线
美编:焕妍
图片、资料来源:
部分图片来自网络
LibTV