使用 N8N 实现革命性的人工智能短视频工作流程

大家好!今天,我们将为您带来革命性的 N8N 自动化工作流程,用于在豆瓣和嘀嗒等平台上创建病毒式短视频。无需拍摄,无需编辑--只需一键提交主题,该工作流程就能生成上千种风格的病毒式短视频。
该工作流程支持全天候无监督操作,涵盖从智能创意脚本编写、批量人工智能图像生成到动态视频创建、自动背景音乐和美化的整个流程。它实现了从零到最终产品的全部自动化。制作完成的视频会自动保存到您的 Notion 知识库中,让您真正毫不费力地批量制作病毒式短视频。
工作流程测试结果:实际案例
让我们来看看 N8N 视频自动化工作流程取得的测试结果。点击 "N8N 视频自动化工作流程测试 "并向下滚动。我们今天将在三个场景中检验该工作流程取得的效果。
情景 1:现实场景(受 BBC 纪录片启发)
在第一个场景中,我们选择了一个逼真的环境。我们立即模仿 BBC "地球 "或 "动物世界 "纪录片的风格,制作了一个动画短片。
观看这段 25 秒的视频,你会发现几乎无法用肉眼分辨出它是人工智能生成的。画外音也配合得天衣无缝,以 BBC 般的声音质量,实现了 "动物世界 "那种缓慢、身临其境的表现形式。这是一段水平视频。
让我们来看看垂直视频。我们可能会注意到一个小瑕疵,但总体而言,质量非常高。
请注意声音是如何在最后逐渐消失的。我的所有测试都涉及较短的视频,大约 20 秒,因为这是当前短视频的典型长度。这是一个真实的例子,让我们来看看它的一些参数。我们模仿 BBC "非洲动物世界 "纪录片制作了一个介绍非洲草原狮子的场景。视觉效果采用纪录片风格,展示了 "百兽之王 "狮子的原始之美。这就是这组作品的提示。
目前使用的主要模型是 Flacks 模型。我们为 Lora 选择了一个由著名作家创作的纪录片风格的高效 F1 模型。质量非常高。在生成图像时,正如您所看到的,生成的图像与真实照片完全没有区别。这就是它所达到的质量。基于这些高质量的 Lora 模型,我们可以生成数以万计的不同风格的短视频。这只是第一个例子,我们还需要根据实际需要更好地配置各种内容类型。这是第一种类型。
背景音乐
https://pub-b65afb21c951453a872a026d19411abe.r2.dev/dongwu.MP3
触发词
分析视频:
https://pub-b65afb21c951453a872a026d19411abe.r2.dev/dongwushijie.mp4
范例提示:
电影摄影,荒地上的一棵树,被砍掉了一半,只剩下一截,树上站着一只乌鸦,远处的天空中盘旋着许多乌鸦。
情景 2:动画/乐高风格(迷你故事)
第二个场景是探索动画或乐高风格的背景。这实际上由三个短片组成一个小故事。让我们一起来看看。
视频 1:爱情故事的开端
第一段视频描述了一对都市男女从初次见面到相识、相知、相爱,最终相伴一生的美好爱情故事。这是我为它输入的提示。
您可以看到这是一个 9:16 的竖版视频,整体质量非常高。我们发现人物的还原和动作都非常出色,尤其是氛围的营造。在观看过程中,即使开着声音,你也会注意到雨天的气氛。看看我们的两位主角之间的动态情感交流:男主角兴致勃勃地交谈,而女主角则安静地吃东西。我非常欣赏这里所展现的气氛;我觉得这些短片让人身临其境,有一种治愈的效果。请注意,女人闭着眼睛,男人抚摸着场景,而此时外面正下着雨。小猫的动作很悠闲,摇着尾巴。因此,我认为这段短视频的质量非常高。这是第一段。
视频 2:家庭生活与成长
从他们相识、相恋开始,这个片段涵盖了一对年轻夫妇结婚、怀孕、生子和孩子成长的温馨场景。这展示了一个美好的爱情故事,现在又演变成组建家庭的温馨场景。我为此选择了 20 秒左右的视频。音频也有逐渐淡入淡出的效果。
如果我们仔细观察这段短视频,我认为它所营造的氛围也相当不错。我们可以一帧一帧地看:外面还下着雨,猫咪看起来昏昏欲睡,男人和女人拥抱在一起,给人一种温暖的感觉。然后是怀孕!尤其是孩子的动作,我觉得非常逼真。因此,我认为人工智能生成视频的质量已经真正达到了与文本和图像生成相同的水平。看看孩子的脚步动作,猫咪摇摇晃晃的步态,还有它摇动的尾巴。篝火正在燃烧,我们是用乐高风格的动画生成的,所以我认为质量非常高。装饰场景的小星星也很有感染力。
视频 3:时光流逝,苦乐参半
接下来,我设计了新的第三个故事:它描绘了男女主人公从相爱、结婚到时间流逝的过程,重点是一个凄美的场景。这个凄美的场景奠定了整个视频的基调。它从爱情的美好开始,过渡到家庭的温暖,最后到达这个凄美的时刻。当然,我也选择了合适的背景音乐。第二个视频,如果你看过韩剧《宋春英必胜》,那是里面我最喜欢的一首歌;第一首是英文歌,也不错。我们来看第三个凄美的场景。
我们看到男女主人公在年轻时经历了爱情和陪伴。然后,女主角生病了,男主角在雨中照顾她。最后,随着时间的流逝,我们注意到猫的表情相当悲伤。这就是我们生成的整个场景。
因此,如果我今天要发起一个病毒式短视频计划,我们需要选择不同的故事主题和不同的主角。整个工作流程是全面的。因此,从爱情到温情,到婚姻,再到时间的流逝,这就构成了一个完整的故事。当然,我制作的所有视频都只有十秒钟左右,但却能很好地传达出气氛。在所有短视频中,这一组其实是我最喜欢的;它是动画片,侧重于角色驱动的短视频生成。让我们继续。我还列出了这个短视频使用的一般参数。
情景 3:微型工作场景
第五个场景是微型或微缩比例的工作场景。这个场景描绘的是农耕:"设计一系列微型场景,展示农作物从种植到收获和建造的全过程"。让我们一起来玩吧。
背景音乐
https://pub-b65afb21c951453a872a026d19411abe.r2.dev/aiqing.mp3
触发词:
3D
分析视频:
https://pub-b65afb21c951453a872a026d19411abe.r2.dev/aiqingshipin.mp4
提示示例:
3D,一个日系男孩风格的像素小人,头发上没有任何装饰,穿着黑色上衣,戴着黑色手表,坐在床上,一只手看着手机,另一只手搂着一个长发女孩。长发女孩的头发盖住了被子,睡在看手机的男孩怀里。旁边还有一只灰白色的英国短毛猫。两人躺在同一张床上,窗外下着雨,旁边有一盏小夜灯,房间里灯光昏暗。
我们看到男女主人公在年轻时经历了爱情和陪伴。然后,女主角生病了,男主角在雨中照顾她。最后,随着时间的流逝,我们注意到猫的表情相当悲伤。这就是我们生成的整个场景。
因此,如果我今天要发起一个病毒式短视频计划,我们需要选择不同的故事主题和不同的主角。整个工作流程是全面的。因此,从爱情到温情,到婚姻,再到时间的流逝,这就构成了一个完整的故事。当然,我制作的所有视频都只有十秒钟左右,但却能很好地传达出气氛。在所有短视频中,这一组其实是我最喜欢的;它是动画片,侧重于角色驱动的短视频生成。让我们继续。我还列出了这个短视频使用的一般参数。
情景 3:微型工作场景
第五个场景是微型或微缩比例的工作场景。这个场景描绘的是农耕:"设计一系列微型场景,展示农作物从种植到收获和建造的全过程"。让我们一起来玩吧。
我们的机器正在运转--即使有些机器在后退,其他机器也在前进。它有一种微缩的感觉,透视对比很好,你可以看到生成的模型质量相当高。最终效果相当不错。这是一种非常令人愉悦的治愈系风格,表现的是一名侦探在看东西,或许是在吃东西。最重要的是,这段视频是全自动生成的,无需人工干预;你只需让它按照你的意愿生成即可,其构成也相对简单。好了,这就是我们的第五个视频。我们还要看另外一组视频--西瓜,也是农作物。从喷洒农药开始,我们需要用机械将西瓜抬起并运到卡车上。现在西瓜被切开了,大家高兴地欢呼着,准备吃西瓜了。这也是一个微缩场景,别有一番风味。
我们已经成功地处理过各种主题:从动物到现实场景、动画、故事,再到舒适的环境。让我们继续往下看。
病毒式短视频背后的理念
创造者以哲学框架处理一切:"它是什么?为什么要这样做?怎么做?因此,第一步就是要问:"豆瓣、嘀嗒和短视频的短视频类别有哪些?"这是创作这些视频之前首先想到的问题。因此,我通过观看许多视频进行了广泛的研究,并总结了我的发现。当然,这个总结不是官方的,也没有学术研究或论文的支持,而是基于我自己的分析和直觉。我认为短视频主要分为三类:
- 感官
- 叙述/情节
- 概念/意识形态
当然,每一步都代表着复杂程度的逐步提高。
1.感官视频
感官视频的主要目的是带来视觉冲击。通过高质量的视觉呈现和完美匹配的声音,它们能瞬间抓住观众的注意力,激发感官和视觉的愉悦。您可以从中获得视听体验。它们主要侧重于处理视觉和声音的细节。
2.叙事/剧情视频
第二个层面是叙事。在基本的视觉和声音基础上,我们必须注入故事和情感元素。通过人物、旁白和对话,短视频变得更有沉浸感和分享性。如果说第一种类型只是听音乐和看 MV,那么第二种类型就是讲故事。它有鲜明的情节、人物动作、主观情绪和思想。这里的核心元素是对话和旁白。
3.概念/意识形态视频
再往上,前两个层次之间的差别就不大了。如果你能在视觉和叙事的基础上,将价值观和你的思考融入对话和叙述中,那么视频就达到了概念层面,你的价值观就在这里得到了传达。如果你的短视频达到了这一概念层面,它就能打动人心,唤起共鸣,更重要的是,引发观众的行为转变。这就是概念层面。这里的主要元素不仅仅是故事、对话或叙述。在制作这些系列短片的过程中,你要逐步建立一个 IP,确立价值观,并推动行为输出。这是概念层面。事实上,叙事和概念之间并无本质区别,关键在于你是否赋予视频以意义。
今天,我们可以用 "狗王查理 "系列短片来比较这三个层次。
狗王查理》视频比较
感官级别: 让我们先来看看感官层面。这段视频展示了 "狗王查理 "的前奏,为它的故事和戏剧性出场奠定了基础。这是什么呢?从画面上看,我们看到狗狗们在打架,然后查理出现了,并发挥了主导作用。这就是短视频中视觉和听觉的简单结合。当然,这段视频之所以能在网络上疯传,是因为它呈现了强大的视觉效果。这不正是视觉和听觉的双重体验吗?画面中激烈的争论立即抓住了我们的注意力,背景音乐节奏感强、旋律优美。因此,这第一段视频是纯感官的;它通过视觉和听觉的结合,实现了身临其境的视听体验,使其充满吸引力和活力,吸引你的注意力。这是第一关。
叙事水平: 让我们来看看叙事层面。这段视频在原来的基础上,加入了对话、旁白,甚至人物对话(我们稍后会讨论)。通过添加对话和故事情节,它将一个普通的狗打架的场景转变成了一个叙事。这里有了情节,有了 "长毛"、"黑老四",甚至还有国际知名的 "狗王查理 "等角色。人物已经出现,故事也有了事件的顺序。这就是我们的叙事层面,短视频的第二个层面。
概念层面: 现在,让我们看看它是如何注入我们的价值观的。我不会给你看完整的长篇故事,但它讲述了一只狗王去世时,周围的狗表示尊敬和怀念,守护着它送行。这体现了人类对逝者的尊敬和爱戴之情。它传达了失去心爱成员时的空虚感,这已经隐含了一种价值体系,包含了人类的真挚情感。这支《狗王查理》视频也是在国外通过二次创作产生的,但我认为与以往的视频相比,它主要注入了一种观念意义。这不仅仅是对故事情节的了解。我最初关注的是一个简单的关于狗打架的短视频,后来有人给我介绍时加入了情节,告诉我A、B、查理、长毛、黑老四是谁。它介绍了不同的角色、不同的狗角色、守卫等,让我知道这些狗视频背后有一个深刻的故事。最后,我们发现它有内在的情感。事实上,"狗王查理 "的核心病毒元素来自于它的价值观输出。这只狗,从三个月大时的弱小和被欺负,逐渐通过自己的奋斗和不屈的精神坚持了下来,永不放弃,与他人对抗以确立自己的地位,或者无止境地追求自己的目标。这就是我们喜欢 "狗王查理 "的原因。它体现了情感和价值观;我们人类是向上奋斗的生命,必须坚持不懈。这种价值观将我们带入了概念层面。这就是我要讨论的三种类型的视频。
比较电影和视频级别
我们还可以从电影的角度来看:
感官级别: 其特点是舒缓的音乐和治疗性的视觉效果,这些构成了感官层面。
叙事水平: 如果我们从台词的角度来看《英雄本色》(小马哥),它通过主人公的对话讲述了一个故事,体现了叙事性。这就使我们更深入地了解了小马哥和他过去的经历,演员的表情真实地传达了人物的性格。这是我们的第二个层面,即叙事层面。
概念层面: 什么是艺术?什么是价值观?我最喜欢的电影《活着》(To Live)就抓住了这一点:"无论发生什么,你都必须忍受,必须承受。我们必须活着,回来,好好地活着"。不同的主人公传达了一个道理:"你欠我一条命,你要好好活着"。你知道这里蕴含着什么价值吗?是一个民族坚韧不拔的品格。五千多年来,历经千辛万苦,这样一个民族巍然屹立。它真正展现了一个民族的品格。这难道不是一种价值的输出吗?这部电影不同于以往所有的电影,不是通过特效或情节,而是告诉你一个民族的整个故事,它的奋斗历程,它的灵魂和血脉中如何根植着一种顽强的精神和民族性格。这就是价值输出。
讨论完这些,让我们回到演示文稿。首先,要明白制作短视频有三个层次。你希望自己的视频达到哪个层次?让我们以 "狗王 "为例,因为它是最近才流行起来的。这位博主最初专注于制作具有视觉吸引力的狗狗视频。他们拍摄了 800 多个视频。我非常喜欢这位博主,因为从情感上讲,他们可能从未想过自己会成为病毒式传播者。他们只是喜欢狗,并拍摄它们的日常生活。他们主要从感官元素入手,专注于视觉和声音--狗打架的激烈场面,以及更轻松的时刻,比如在炎热的夏天,狗舒适地躺在院子里。这主要是为了传达视觉和声音。但是,当你拍摄了 800 多段视频后,故事自然而然就开始出现了。什么故事?每只狗都成为一个角色--长毛、黑老四和其他个性鲜明的狗狗。故事性被注入其中。这些故事,无论是通过后续的二次创作还是原始内容中固有的意义,都会变得更加丰富。当然,有了更多的二次创作,人们也会从这些简单的视觉形象中提炼出价值:不屈不挠的精神、从小奋斗、脚踏实地的作风。因此,"狗王 "的故事展示了一个短视频频道如何实现病毒式传播:从最初追求感官层面,随着拍摄更多视频,形成叙事,最终达到概念层面。
在我看来,这里创建的 N8N 工作流程实现了一些叙事元素。我为什么特别喜欢它呢?我们之前看到的那对情侣的故事已经具备了一些叙事元素,从相识、相恋到相知。它达到了第二个层次。不过,我今天要讨论的短视频工作流程主要侧重于感官层面,强调视觉和声音之间的对比。之前,我创建了一个完全自动化的工作流程,每个场景、配音、情节和故事板都是自动化的。但是,由于每个模块的自由度都很高,因此很难传达情感和氛围,缺乏我之前提到的温暖感。因此,经过很长一段时间后,我最近彻底废除了这一工作流程,并将其重建。由于无法实现所有条件,我决定将重点放在感官层面来创建这个工作流程。
现在,有了这个工作流程,你就可以逐步使用它,首先通过视觉和声音追求感官冲击,然后逐步融入叙事元素,将短视频提升到一个新的高度。这就是 "今天的短视频";今天的重点是感官层面。在感官层面制作病毒式短视频的策略是什么?就是 "我有什么,我怎么做"。怎么办?其次,我需要什么策略?
病毒式感官短视频战略
由于感官层面涉及视觉和听觉的匹配,因此我对每个领域都进行了深入探讨,以说明如何制作病毒式视觉和听觉短视频。
视觉效果:关键要求和工具选择
对于视觉效果,我的主要要求是
工作流程需要整合各种视觉风格,不能只局限于一种。因为工作流程需要具有通用性和适应性。现在开发的工作流程不可能只生成一种视觉风格一致的视频,那样的话,在投入大量时间构建工作流程后,效率就会很低。因此,我今天提出的第一个要求是,这个短视频工作流程必须支持多种风格。此外,一旦你确定了一种风格,整个风格就必须是可持续复制的。因为如果你看看现在的病毒式短视频账号,他们发布的视频一般都是单一类型的。例如,"狗王 "系列都是一种类型的视频。因此,在单一风格中,你必须能够始终如一地产出高质量的作品。如果做不到,质量就会不够高。视觉要求是在专注于某一特定风格时,始终如一地制作出高质量的作品。
我选择了什么工具?正如我在之前关于漫画视频的视频中提到的,还是 LiblibAI 的 API。这是我们国内市场上一个非常重要的图像生成平台。它内置了 10 万多个图像生成模型和 Lora 模型,支持 API 调用,价格合理,采用灵活的现收现付模式。您可以添加各种插件,甚至不同权重的 Lora 模型,以达到您想要的效果。只要您能在 LiblibAI 中生成图像,我就能为您将图像转换成视频。这就是我们选择它的原因:它支持多种样式,同时还能确保单一样式的稳定输出。
声音关键要求和选择
我们如何选择声音?如果我们看看一些病毒渠道,它们的配音是相当一致的。通常情况下,10 到 20 个甚至几十个视频都会使用相同的配音。这是因为我们的听觉具有惯性。如果你喜欢一首音乐,你会越听越爱。一开始,你可能会觉得旋律跑调或不符合你的口味,但听得越多,你的听觉惯性就越强,你就会开始喜欢上这首音乐。这就是为什么我前面提到的漫画视频,无论是《宋春英》还是《动物世界》的音乐,都是我的最爱--因为这种惯性。所以,配音需要修正,但其*长的时间必须根据短视频来调整。
因此,我建议的流程是首先在豆瓣和 TikTok 等平台上筛选顶级账户。从他们最常使用的音乐中,筛选出你喜欢的音乐。根据它们的时长、情感基调和节奏点(你可以查看它们的波形图来识别节拍点等),修复这些声音。当然,要真正实现病毒式传播,你需要制作自己独特的声音。目前,许多声音都是由专门的人工智能配音演员或音效工程师制作的。总的来说,我们已经确定了两条实施路径。稍后,在设置过程中,我将详细介绍 LiblibAI 的许多配置技巧。在这里,我主要讨论基本原理和理论逻辑。
如何实施:主任的五步法
那么,做什么,怎么做呢?这就涉及到我们的工作流程。如果你要制作一个短视频,就好比你要做一个导演。因此,我们需要了解导演是如何工作的。我将其总结为五步工作法:
剧本创作 首先,短视频必须有脚本。
场景分解与安排: 写完剧本后,你需要把它分解成几个场景。"动作一"、"动作二 "等等。场景分解后,再按章节或片段安排拍摄。
创建图像: 你不是拿着摄像机指挥演员。你首先要创造影像。这就是我们的图像生成阶段。
从图像生成视频 然后,根据这些图像生成视频。目前,您**可以直接生成视频,但正如我所说,为了确保视频风格一致,我们首先选择生成图像。因为图片在风格上很容易控制;你有各种 Lora 模型,而 Flacks 模型的能力很强,可以确保稳定的输出。因此,我们首先生成图像来固定风格,然后将这些图像传递给我们的视频生成模型来创建视频。
后期制作/合成: 最后是我们的后期制作,包括配音合成、视频拼接、为声音添加淡入/淡出效果,甚至添加字幕和水印。所有这些都是我们后期制作的一部分。因此,我今天将按照导演的工作流程来构建这个工作流程。
谁是导演?多模态大语言模型
那么,谁来当导演呢?我的结论是,应该是多模态大模型。说到多模态能力,让我们到我的网站上去演示一下。我很早就在讨论多模态模型的作用。例如,在 Make.com 中,我是第一个展示多模态模型如何为 25 秒视频生成配音脚本的人。这是整个网络上第一个多模态 Make 工作流程,可以毫不费力地从事实文本生成配音脚本。当时,它利用多模态模型直接从病毒式短视频中提取元素,为我们生成配音脚本。我一直在整理,对吧?"有哪些新曲目?"这些都是我写的文章,勾勒出很多方向。什么》中的多模态视频有哪些?这采用的是 Flacks 儿童图画书模式,直接继承了今天的 LiblibAI 视频。所以,我的视频其实是有逻辑递进的。如果你感兴趣,可以去看看 "多模态模型的新轨迹是什么?"那里介绍得很好。
回到演示文稿,为什么使用多模态模型作为导演?在创作第一部视频的早期阶段,我曾尝试让一个基于文本的大型模型担任导演。我让文本大模型从豆瓣中提取配音脚本,然后从中生成一个脚本,再将其分解成场景。我发现效果并不好。为什么呢?因为大模型无法**视觉效果。短视频,尤其是像本工作流程这样针对感官层面的短视频,从根本上说是视觉和声音的结合。我们目前的工作流程甚至连配音脚本都没有,那么基于文字的大型模型怎么可能是导演呢?那么,应该让什么样的大型模型来当导演呢?应该让能*识别视频的大型模型来当导演。这就是多模态模型的用武之地。此外,谷歌的双子座大型模型,尤其是Flash,是免费的,支持上传2GB甚至更大的文件,可以直接分析短视频。
所以,今天我使用了谷歌的多模态大模型。根据脚本的主题,大模型的多模态功能将深入分析病毒视频中的病毒传播机制、视觉热点和氛围营造技巧。根据您的参考视频,它会生成视觉场景提示。这就好比让导演,也就是大模型,先观看 IMDb 250 强中同类型的最佳影片。看完之后,大模型就会学习。然后你告诉它:"好了,现在为我生成一个《为了生活》风格的剧本"。我已经对此进行了测试,结果令人印象深刻。如果你没有这样的工作流程,也可以将视频上传到谷歌人工智能工作室,让它分析视频中的病毒点;它会分析得非常透彻。这是我们的第一点。
然后,它会生成场景提示。这些提示不仅包含图像元素,还概括了氛围,并在提示中进行了很好的总结。生成图像后,创建从图像到视频的动画效果也需要提示。这也需要多模态能力:让大型模型直接查看整个图像,分析其动态元素和电影语言,然后为视频生成模型生成视频提示。事实上,如今这一工作流程中的所有步骤都由人工智能完成。从根本上说,你把专业导演的所有工作都委托给了多模态大型模型。因为多模态大模型现在不仅能读剧本,还能看视频、听声音、看视觉效果。这是我们今天整个工作流程的核心技术,无论是中文还是英文,这在整个领域都是首创。在我见过的所有 N8N 工作流程中,我还没有见过一个能把双子座多模态大模型工作流程嵌入到短视频制作领域的。这实际上相当困难,我的节点也相当多,所以我稍后会详细解释。这包括 "我们有什么"、"我们做什么 "和 "我们怎么做",这是最重要的方面。
N8N 工作流程步骤:摘要
现在,让我们通过一系列步骤在 N8N 工作流上实现这一点。每个步骤都有详细的节点配置。这里有一个小顺口溜供大家记忆:
- 人工智能自动提取,主题创意层出不穷。
- 多模态深度分析,场景脚本自动合成。
- Lora 限制制作杰作,上千种款式任您选择。
- 智能识别运动点,让图像瞬间鲜活起来。
- 一键添加声音和水印,病毒式短视频即刻出现。
这就是这个工作流程背后的整个逻辑和概念。
该工作流程的主要功能
现在,让我们来总结一下这个短视频工作流程的特点:
批量生产: 它支持 24 小时无监督批量制作短视频。
风格多变: 它采用了 LiblibAI 中所有商业上可行的大型模型。您可以使用它们生成视频,一键切换数万种风格,适应所有场景。正如我们刚刚测试的那样,无论是真人、动漫人物还是动画主题,它都完全通用。这是因为 LiblibAI 拥有不同的图像模型训练专家,他们会为我们训练这些模型,从而实现相当稳定的生成。
多模式动态分析 这是全网首创的病毒视频分析功能组合。它利用 Gemini 强大的多模态功能,深度提取病毒视频的特征,并根据多模态输入生成提示,为我们的视频创建动态提示。
尖端视频生成: 我们今天使用的视频生成模型是 Fal.AI。这个网站可以在 Minimax 和浑源之间快速切换。谷歌的第二代和第三代模型尚未集成,但我预计很快就会集成,届时就可以使用了。
整合 NCA 工具包: 我们还将推出一个新的开源工具--NCA 工具包。它真正实现了基于云的视频处理、免费水印添加、音乐合成和特效处理,一切都在云端进行。这是当今视频处理的关键部分。它还支持多种语言。
灵活开放: 它基于 N8N 开源框架,提供灵活的参数配置。这是我创建过的最复杂的工作流程。
下面我也来介绍一下这个工作流程的整个演变过程。最初,我主要是依靠一个大型模型的生成策略来一次性实现整个流程的完全自动化。但在实际应用中,我发现整体匹配的准确率很低。因此,这个工作流程对我来说极具挑战性,确实非常困难。最初的设置花了很长时间,最终的结果也不理想,所以我彻底放弃了它,重新开始。我非常沮丧,甚至删除了工作流程。后来,我别无选择。经过深入研究和反复测试,我采用了局部约束加智能分析的策略。通过 Lora 模型,我对图像风格进行了约束,最终形成了现在的可控工作流程,其中有数千种视频风格可以随意更改。
后期制作工具:NCA 工具包
现在,让我们来看看这个短视频工作流程中用于后期制作的主要工具:NCA 工具包。这个开源工具是由 Make 和 N8N 社区的一位著名博主和开发者开发的,他慷慨地将其提供给了我们。该工具包是高质量的免费工具。这位开发者还提供了如何将其免费部署到 Google Cloud 上的说明,然后你就可以通过 N8N 和 Make 调用它了。更重要的是,它是免费的。如果你熟悉 Make 和 N8N 平台,调用成熟的 API 通常需要每月支付 $40 甚至 $50 的费用,非常昂贵。此外,这些服务通常是包月服务,而不是现收现付。这就是为什么这个视频被推迟的原因--这个特殊的问题还没有解决。因为如果使用 N8N 和 Make 生成视频,就会涉及到视频合成。有了这款开源工具,我们现在可以很好地完成这一操作。
让我打开它的官方网站给大家看看;这就是整个开源工具。有这么好的开源工具,希望大家能多点赞、多支持,帮助它进一步发展。它支持很多工具。我还为大家开通了我的官方网站。我花了大约半天时间,大约三个小时,写了这两个视频,真的是半天。点击 "分类",你会看到 NCA 工具包的完整教程。其中包括在谷歌云平台(Google Cloud Platform)上一步步免费安装的中文教程,还有我精心准备的几十张图片;我还会在视频中教你如何安装。它还向你展示了如何设置谷歌云存储,我经常被问到关于 R2 以外的直接链接的问题;谷歌的解决方案也相当有用。这涵盖了部署 Google Cloud Storage 的整个过程,以及如何在 N8N 中直接调用它。同样的逻辑也适用于 Make;两者都可以实现这一工具。这是我为大家准备的完整教程,可在官方网站上获取,同时还有介绍 NCA 工具功能的实用综合指南。一起来看看吧
- 为视频添加字幕
- 视频拼接
- 提取缩略图
- 编辑和分割视频
- 音频/视频拼接
- 叠加和混合音频
- 静态图像到视频的转换
- 一般格式转换
- 内容提取和转录
- 它还支持 Python 代码执行和云部署。
其中有些参数可能不正确,因为我也是用人工智能写的,不过没关系。您可以通过中文解释了解每个节点的功能。对于具体的参数,官方网站提供了详细的信息,因此您可以去那里查看每个参数的介绍。首先用中文理解它们,然后在实际使用时,可以将整个页面发送给 GPT,请它帮您构建请求体。这完全没有问题;您只需阅读中文,就能理解每个模块的作用。因此,我刚才提到的支持功能非常多。这真是为 N8N 和 Make 的视频自动化 "如虎添翼";简单地说,它实现了 "一键起飞",对吧?这就是整个工具,稍后我会介绍如何设置。让我们继续。
实际实施:在谷歌云上设置 NCA 工具包
既然我已经提供了这么多初步信息,接下来我们就进入实际操作部分,看看整个工作流程是如何一步步实现的。首先,我会帮你在谷歌云上安装 NCA 工具包。我们可以从头开始。第一步是访问谷歌云平台网站。我也可以将此 URL 放在视频描述中。您需要一个账户,只需用您的谷歌账户登录即可。点击右上角的 "免费开始"。点击后,会弹出一个界面。您需要选择国家或地区。我建议选择美国,因为我的 N8N 也部署在美国。选择美国后,您需要添加一个付款配置文件。点击 "添加"。您的地址栏会出现。我建议您输入真实地址,但如果您没有真实地址,我也提供了一个生成地址的工具;您可以将其粘贴到这里。生成个人资料(包括付款方式)后,您需要添加一张信用卡进行验证。GCP 会进行小额预授权,以验证信用卡的有效性;这笔钱会退还给您。因此,您需要一张支持谷歌验证的双币种信用卡。据我所知,中国大陆的信用卡可以用于这项扣款;虚拟卡不支持。添加信用卡并扣除少量金额后,你的账户就会通过验证,你就可以激活一个项目了。今后如有任何改动,可以查看视频评论,因为很多用户在这里遇到了问题,我在这里列出了重要的注意事项。输入卡片后,你应该会成功,你的账户一般也会被激活。如果没有,你也可以在谷歌上搜索 "谷歌云平台激活方法";许多简短的视频对此都有解释。这里我就不多说了,但这是大致流程。之后,您只需填写一份简短的调查问卷即可完成项目设置。
GCP 项目和应用程序接口设置
现在,准备工作已经完成,我可以开始演示了。让我们从准备工作开始。第一步是点击左上角,创建一个新项目。我会在这里指导你完成它。我们将输入一个名称,例如 "n8n-test"。系统会进行检查,并生成实际的项目 ID。你可以根据自己的输入输入一个唯一的名称。对于组织,选择 "无组织",然后点击 "创建",创建一个新项目。好的,等待项目完成。创建完成后,项目将出现在右上角。你可以点击 "选择项目 "或点击这里打开它。我有很多项目,所以我会选择 "n8n-test "项目。确保切换到相应的项目。
点击左侧,然后选择 "API 与服务"->"已启用的 API 与服务"。这就是我们需要启用 API 的地方。我们需要启用几个 API。首先,可以直接从网站上复制 "Cloud Storage API "名称。仔细检查,然后点击 "打开"。我的已经启用,如果你的还没有,请务必点击 "启用"。然后会显示 "API 已启用",这样就可以了。好的,让我们继续使用其他 API。搜索 "云存储 JSON API"。密切关注详细信息。单击 "管理",然后单击 "启用"。这也已启用,所以没问题。点击 "返回"。另外,"云运行"。我们将使用 Cloud Run 模块来部署 Docker 代码。点击启用。好的,启用后,我们需要创建一个服务账户。导航通常在左侧,因为功能太多,所以在一个子菜单中。我们选择 "IAM 与管理",向下滚动,找到 "服务账户"。
创建服务帐户和密钥
现在我们需要创建一个新的服务账户。点击 "创建服务账户"。在此输入名称;我将复制粘贴。为了保持一致,我将添加 "test "作为后缀。我们可以在这里添加描述;这是可选的,但有利于清晰:"用于 NCA 工具包访问 GCP 资源"。添加这些小细节很有好处,这样以后就能理解和识别它们了。点击 "创建并继续"。接下来,我们需要为它分配一些角色。搜索 "存储管理员",点击选择。然后,继续添加 "查看器"。再次搜索 "查看器 "并添加。添加完成后,点击 "完成"。服务账户现已添加。现在,我们需要对服务账户执行操作。选择刚刚创建的账户。这时我们之前添加的描述("用于测试")就派上用场了。单击其名称,然后单击 "管理密钥"。找到相应的 "管理密钥",然后选择 "添加密钥 "和 "创建新密钥"。我们将保留 JSON 格式。点击 "创建 "后,它会下载一个文件到本地计算机。你必须小心保存这个文件。我们稍后将使用该文件;你将复制其全部内容作为 JSON 密钥。由于我们之前启用了云存储 API,这就允许部署的 Docker 服务使用 JSON 密钥访问我们的 Google 云存储,从而方便地将处理过的视频直接存储到我们的 Google 云存储账户中。这就是它的作用。所以我们之前激活了这个。稍后我会为你连点成线,我们先来看看具体步骤。
创建云存储桶
在本地创建并下载密钥后,我们现在需要创建云存储桶。点击左上角的 "Cloud Storage",然后点击 "Overview"。我们将从 "存储桶概述 "开始。单击 "创建存储桶"。这个名字必须是全局唯一的,所以一定要选择一个唯一的名字,比如 "n8n-test-video-33"。您必须选择自己的名称,或许可以将您的用户名包含在内,以确保全局唯一性。"n8n-33-test",没问题,我们继续。我们将保持美国的多地区性。点击 "继续"。在这里,我们需要修改一个选项:我们必须禁用 "在此存储桶上强制防止公众访问"。这意味着我们的 Cloud Storage 存储桶将可以公开访问。请注意:该存储桶中的所有文件都可以在互联网上公开访问。这里不需要添加进一步的身份验证,因为生成的视频肯定会被公开访问。N8N 和 Make 稍后需要直接访问和使用它们,而我们的人工智能生成的视频不涉及任何隐私问题。所以,你必须关闭这个选项;这是一个非常重要的选项,一定要记住。好的,点击 "继续"。点击 "创建"。现在正在创建存储桶。我们稍后将使用这个 Cloud Storage 存储桶的名称:"n8n-33-test"。现在已创建。稍后您可以打开该网站并在此上传文件。上传后,您将看到其公共访问链接,可以复制并分享到任何地方。例如,这包括 Lora 模型;如果您使用的是自定义 Lora,则需要一个直接链接,为此您可以使用这个 Google 云存储桶。
当然,我们需要修改水桶的权限。点击 "权限",然后点击 "授予访问权限"。在这里,我们需要添加一个角色。我们将为所有用户输入 "allUsers"。他们应该拥有什么权限?"存储对象查看器"。复制并粘贴 "存储对象查看器"所以,事实上,这也是我一直坚持用图片制作视频的原因,因为这样的视频实际上观看起来不太方便,因为你经常需要复制内容。"存储对象查看器"。如果点击并授予这个角色,确保上面添加成功,那么就没问题了。点击 "保存更改",确认 "设置为公开",允许公众访问,然后点击 "确认"。好了,这两个步骤:首先,我们创建了一个新项目,并按照项目流程进行了操作,对吗?创建新项目后,我们做了什么?我们启用了 API,允许激活各种 API。启用后,我们创建了一个服务账户。创建服务账户后,我们创建了一个存储桶。创建存储桶后,我们就可以使用 Cloud Run 模块来部署我们的开源工具了。实际上,只要有服务器,就可以在任何地方部署,所以非常灵活。因为这是一个 Docker 环境,任何支持 Docker 的设备都可以部署这些内容,只需正确配置变量即可。
使用云运行部署 NCA 工具包
我为什么选择谷歌?因为它有免费试用期。请注意:试用期结束后,请务必及时关闭账户,因为它会发送电子邮件以防止过度收费。这是一个重要的考虑因素。说实话,你可以用一张新的信用卡开始另一次测试,实现一种持续使用。事实上,它的资源消耗应该不大;如果长期运行,它仍然是可行的,因为我们使用的是一个可以停止的实例。现在,让我们开始在 Cloud Run 上部署这个 Docker。点击左侧,滚动到 Cloud Run,然后进入。我们将部署一个容器,或者直接创建一个服务。点击 "创建服务"。好的,我们直接从 Docker Hub 部署镜像。我们可以直接输入 Docker Hub 的地址。我会复制容器位置链接,它会直接为你配置。我通常会选择碳排放量较低的地区,比如俄勒冈州。我不确定它叫什么名字。向下滚动。确认地址和服务名称。再向下滚动。粘贴后,你会看到是 "最新",这意味着将部署最新版本。对于身份验证,我们选择 "允许未经身份验证的调用"。我们允许未经身份验证的访问,因为 N8N 不需要身份验证;它只需要直接访问。此外,请务必记住这个端点地址;你稍后会用到它。这是所有 API 请求的固定 URL。然后,选择 "全部允许"。我们选择 "基于实例",而不是 "基于请求"。它有一个生命周期,不会为每个请求启动。继续向下滚动。
在这里,最小实例数选择 "全部"。这意味着至少要有一个实例在运行。点击 "全部";我们还需要启用它并添加参数。继续向下滚动。还可以在此将最小实例数设为 0,以减少冷启动时间和成本。端口为 8080。对于 CPU 和内存,我们可以使用 4 个 CPU 和 16GB。如果你要处理视频,这可以处理很多;如果你有钱,你可以选择更大的资源来更快地完成,这完全没问题。根据需求选择。我一般选择默认的、更简单、更便宜的选项:16GB、4 个 CPU。当然,如果你有 GPU 就更好了。对于并发性,我会设置为 1。我自己的请求肯定会一次处理一个,所以是 1。我会选择 "第二代"。对于最大实例数,我选择 1。在这里,我会选择 0,这样就可以了。启用 CPU 加速。这个配置应该没问题。将超时设置为 300。好了,我们已经在下拉菜单中配置好了一切:大约 16GB、4 个 CPU、300 秒请求超时、1 个最大实例、第二代、0 个最小实例、1 个最大实例,并启用了 CPU 加速。让我们回顾一下:选择 "全部",空闲时自动缩减为 0 实例,允许所有用户访问,选择美国地区,配置名称为 "最新"。好了,这就是我们的 Docker 部署内容。
在 Cloud Run 中配置变量和密钥
接下来,我们可以找到 "变量和秘密",在这里设置我们的变量。添加第一个变量,它必须是我们的 API 密钥,也就是你通常用来验证的那个。为了简单起见,我使用 "123";你应该设置自己的用户名或密码。用户名通常就足够了,因为没有人会知道你的访问 URL,而且与 API 结合使用,非常安全。因此,请记住您在这里设置的内容,因为今后的每个请求都将使用它。这就是你的 API。其次,你需要复制我们之前下载的文件的全部内容。我们将粘贴复制的代码。你可以直接从我的教程中复制;请务必仔细检查正确性。现在,打开我们在前面步骤中下载的 JSON 文件。它是 JSON 格式。用记事本或任何文本编辑器打开它,不要修改其内容,全选,然后复制到这里。好的,我已经复制并粘贴了所有内容。这就是你的 JSON 请求,本质上就是让我们的云 Docker 部署工具 NCA 访问本地的 Google Cloud Storage 内容,允许它上传文件并执行各种操作以获取公共 URL。然后,继续添加下一个变量,即我们的存储桶名称:"Bucket Name"。另外,请注意尾部空格和其他小细节。你可以打开另一个 Google Cloud Storage 窗口来查找它的位置。首先,如果你有多个项目,一定要确保你选择了正确的项目;否则,你会经常遇到 "密码不正确 "这样的错误,因为权限是在项目 A 中设置的,而不是在项目 B 中设置的,而且你使用的是项目 B 的 Make API Key。因此,请选择 "n8n-test",然后在 "n8n-test "中选择谷歌云存储。这不是它的名字吗?如你所见,"n8n-33-test "就是它的存储桶名称。回到这里并粘贴进去。这解决了一个经常导致错误的小细节问题。好了,设置好这些细节后,我们就可以点击 "创建",它很快就会被部署。你也可以部署其他程序。等它运行完成后,我们就可以开始请求了。我们稍后会需要生成页面的 URL;这就是我们要请求的内容。因此,我们要保持打开状态。现在,让我们直接进入 N8N,设置我们的工作流程;我们将在需要时再次访问此页面。
N8N 工作流程设置
让我们打开 N8N。首先,我会向你展示我在存储中使用的内容。这些就是我之前提到的删除内容。我删除了主工作流。是的,是的,没错。所以,对于每个角色的拼接和合成,我都用了所有的东西,但效果并不好,所以我别无选择,只能重新开始。点击右上角的 "创建"。好了,我们已经熟悉了 N8N 如何创建工作流程。下面我将从头开始演示。首先,在创建这个工作流程时,我通常会将其重命名为 "33"。我通常从表单开始创建工作流。为什么呢?因为表单是可以固定的,而且一旦提交,以后就可以持续测试。同时,您还可以在表单中快速添加所需的参数。这种自动化工作流程不使用任何外部知识库。事实上,我看过很多国外的 N8N 和 Make 教程,都是先建立一个非常复杂的 Notion 或 Airtable No-code DB 知识库。你需要先了解这些知识库的概念。Notion 很简单,但其他表可能会有嵌套,使其变得非常复杂。因此,这个工作流完全脱离了任何知识库;所有的数据传输和生成都在 Make 本身中进行,使用起来更简单,也更容易理解其中的逻辑,而不需要准备一个单独的数据库来为其服务。另外,在导入我的工作流程时,请确保你的 N8N 已更新到最新版本,因为我总是使用最新版本。我就是这样,喜新厌旧。因此,使用表单更简单,表单可以取代数据库的功能。你不需要跳转到 Notion,点击输入一个项目,然后运行它。
表格触发器设置
点击 "添加",然后点击 "表单"。好了,我们输入一个名字。我的老传统是先重命名。为什么呢?因为这个名称决定了我们以后如何编写数据映射表达式,所以名称必须正确。我们给它起个名字吧"工作流名称生成器"。这就是它的名称。现在,让我们添加它的元素。N8N 现在也有中文版,但我不建议使用。为什么呢?因为它的单词不多,而且非常简单,时间长了你就会记住。这只是字段名。如果你升级到中文版,以后可能会遇到问题。N8N 会不断推出新功能,所以一定要紧跟官方步伐。以后会越来越简单的。现在,它的社区节点可以直接添加到 N8N 中,这是很好的功能。如果更新到中文版,可能会遇到数据或冲突问题。我甚至犹豫要不要在本地部署,因为有时长时间不用后,文件夹可能会被删除,造成问题。因此,我一般更喜欢云计算的自由;我可以在任何地方打开电脑,登录并立即开始使用。这也更灵活,不依赖于电脑;如果电脑出现问题,你可能会面临数据问题。因此,我一般使用基于云的解决方案,但本地也是免费的,所以请根据自己的需要选择。
对于 "视频主题",有时是长文本,则输入 "文本区域"。如果是短文,则输入 "文本"。这并不重要。接下来,字段名称非常重要"场景计数"我会继续添加"场景数 "是个选择 因为它是个数字"文本 "也可以这是 "分支",无论你是想使用自动化还是自己通过表单提交。自测时使用表单,自动时使用自动化。因此,这应该是一个下拉菜单。选择 "自动"。创建 N8N 工作流程时,请自行确定这些名称。"自动化"、"表单"。以后,如果你叫它 "表单",就一直叫它 "表单"。这样可以更方便地从其他工作流中直接复制许多字段,而无需重写。一旦使用得多了,就会变得更容易。现在,我已经清楚地区分了 "自动化 "和 "表单",并逐渐养成了这种习惯。
接下来,我们添加 "表单元素"。对于 "MP4",您不需要做任何更改,因为它与文件下载的二进制名称有关。这里必须使用英文,中文会导致乱码。这是一个小细节。我们选择 "文件"。一般来说,我们不会在这里启用 "多个文件上传";只能上传一个文件。好了,设置好这些字段后,点击 "添加附加字段 "并关闭 N8N 标识符。将 "按钮标签 "改为 "创建视频"。这些只是我的小习惯。对于 "路径",我将其命名为 "工作流程视频"。任何写有 "Workflow "的地方都是你可以修改的地方;你可以把它改成你自己的名字。例如,如果你叫约翰,你可以把它改成 "约翰-519"。这有助于我指出你可以修改的地方。为什么呢?有时我可能会忘记提示你可以修改的地方。第一个表单已经生成,我们可以快速运行它。输入 "11",选择一个。我不会上传文件。"创建"好的,第一个模块没问题。第二个模块之后 我们需要两个 "合并 "路由器按 "M "代表合并点击 "添加"好,移到这里复制一下"非活动"设置为 "激活",然后复制。这两个是用来构建自动化模块的,我们稍后会用到。让我们先完成表单逻辑,一旦运行正常,我们就可以使用自动化了。在这里,我们将打开它并修改名称。这个路由器是 "自动化",来自自动化方面。这里有三个分支。点击 "重命名"。点击 "关闭"好的使用的参数是 "按位置组合","数量 "设为 3,同时启用 "包括其他输入"。配置完成。现在,我们来配置第二个路由器。路由器 "表单",也是三个。"按位置组合"设置为 3。重命名为 "表格"点击 "重命名"既然是复制的,这个模块也应该打开。好的。先把这两个模块放到上面的路由器上。我们稍后再继续。
设置参数(编辑字段节点)
接下来是常用的参数设置部分。如果您导入视频,需要修改的主要就是这一部分;其他参数可能改动较少。主要就是这个 "编辑字段 "部分。我把它命名为 "综合参数设置"。这部分会有很多字段。如果你要修改任何 API 密钥,一般都在这里修改,而不是稍后,因为我已经把所有密钥都集中在这里了。如果导入我的工作流程视频,只需修改这一部分,一般的工作流程就会运行。这部分有几个字段:
-
视频主题: 这是我们通过 JSON 访问的表单。我一般选择直接从 JSON 中使用 "视频主题",因为这是你的字段名。
-
场景数 这是第二个字段。
-
提示示例: 这也继承了前面的步骤。
-
音乐 URL: 我们还需要添加音乐 URL。一般情况下,每个视频都会有固定的音乐,因此这些音乐将为一批自动视频自动固定。我们可以直接将开源 URL 放在这里。这就是为什么上传到我们刚刚创建的邮筒会很方便的原因;你可以在任何地方使用它,最重要的是,它是一个直接链接,以 .mp3 或 .mp4 结尾,这意味着你可以直接下载和访问该文件。
-
主要型号 ID: 我复制粘贴一下。由于您支持数千种样式,您肯定需要在不同的模型之间切换,无论是 Flex、其他特定模型还是其他服务。您可以根据模型的 Lora ID 来切换模型。这是主模型 ID,也就是我们的检查点。之后是 Lora ID。这些都是 LiblibAI 官方定义的;稍后我会解释在哪里可以找到它们。我还没有谈到 LiblibAI。
-
触发词: 由于 Lora 经常使用触发词,因此请尽量使用这些触发词。我的触发词是为我们当前的视频风格设置的,所以你可以在更换风格时切换这些触发词,以匹配相应风格的触发词。
-
特殊图像要求: 我添加了这个节点/模块,让你能在自动化的基础上添加新内容,从而引导人工智能并融入你自己的想法。这是用于图像的。
-
特殊视频要求: 我会复制这个。这些目前是风格一致的占位符。
-
单个视频时长: 我们选择 5 秒钟。
-
分支机构: 你要走哪条路?
好吧,我休息一会儿。我讲了一个多小时,真的很累。现在我们继续。我们已经建立了分支。下面是时间戳,因为 LiblibAI 需要时间戳来验证 API。我会先设置今天的参数,然后再解释时间戳。时间戳之后是一个随机数,我们也要输入这个随机数。这些都使用 N8N 的内置函数生成随机数或字符串,从而实现我们的加密目标。随机数用于生成 LiblibAI 图像。
LiblibAI 有许多接口。每个接口都需要在密钥计算过程中根据端口 URL 进行计算。文本到图像(Text-to-Image)就是这样一个 API 端点,您需要在此基础上配置后续流程。我们还将添加 LiblibAI 结果端点。既然已经从文本生成了图像,那么就需要获取它的状态。好的,这就是它的状态。让我们继续添加 LiblibAI URL;它是固定的 API 访问 URL:open.liblib.cloud`。实际上,我推荐使用 LiblibAI 来简化该 URL,因为现在大多数大型模型都使用单键。当然,它有很多参数,这可能是出于不同的考虑。
现在,让我们继续复制 Google Cloud Bucket 名称。这个名称仍然来自我们的 "n8n-33-test";请用你自己的名称替换它。这些都需要你自己更改,因为你是按照我的步骤操作的。关于双子座的 API 密钥,在哪里申请?点击这个链接,然后输入网址 "aistudio.google"。这是 Google AI Studio 的界面。点击右上角的 "获取 API 密钥"。您复制的密钥是免费的。你只需复制密钥即可;它具有免费的使用配额和使用跟踪功能。这是它的简单请求体。如果你只能使用 Flash,那就使用 2.5。这里复制了 Flash 的具体型号名称。如果你的开户免费送彩金38元不能使用它,就需要绑定银行卡进行支付。事实上,如果你绑定了一张中国卡,我们在谷歌云平台设置时就绑定了,应该可以使用。只需添加支付信息和支付宝账户即可,国内技术应该支持。绑定国内双币信用卡后,就可以使用 Pro 了。当然,为了达到最佳效果,您一定要使用 Pro。如果没有,可以使用 Flash。具体的 URL 复制到这里,API 在这里。点击 "复制 "并粘贴到这里,然后就可以使用了。还可以添加相应的模块。由于我们没有成熟的多模态模块,所以只需将密钥粘贴在这里。我们继续添加 NCA API 密钥。我们之前将其设置为 "123";我将我的设置为 "123"。关于 NCA URL,我也告诉过大家,生成后可以从 Google Cloud Platform 复制这个 URL,然后粘贴上去。至于 Fal.AI,我会先粘贴它,然后再向大家展示 Fal.AI。这就是 Fal.AI 网站。输入关键词即可找到。点击 "主页",你会在这里找到 "API 密钥"。你可以创建自己的密钥并粘贴进去,这样也可以。这是我们的 Fal.AI,因为我们将其作为使用 Keling 生成图片的中介平台。继续添加徽标 URL。因为我们稍后会添加水印,所以你需要自己设置一个透明徽标。如果你是开发人员,这很简单。我给你演示一下;我设置的 URL 应该是白色的,这样你就看不到它了。这是一个透明徽标。你可以设计自己的徽标,也许是 "Workflow"(就像我们博客的 "Workflow"),尺寸为 500。你甚至可以下载这个网站的 URL,然后根据我使用的尺寸自行生成,这样就可以完全一样大了。否则,你需要调整参数。这个 URL 实际上还需要添加两样东西:Liblib 访问密钥,我先把它添加到这里。以及 Liblib 密钥。由于这两个值不能被所有人替换,所以我不会显示这两个值。所以,让我们利用这个位置来简要说明一下 Liblib 的验证格式。点击进入任何 Liblib 官方网站。例如,如果你在官方网站上,左下方有一个 API 平台。点击进入,它会告诉你它支持哪些机型,比如行流 3。你也可以在这里使用它,但需要修改请求体。它支持自定义模型、高精度控制、适用于 Flux、Stable Diffusion v3.1.5,以及完全商业化的私人和商业模型。其中包括著名的 AW Portrait;这些都是我们可以使用的模型。它还会告诉你统一的价格;一般来说,每张图片几分钱。你可以充值 10 元,自己试一试,感受一下,还可以拿到发票等。就是这样充值的。注册时应该会赠送点数,但我不确定,因为我是直接充值的。点击左边的 "API 文档",你可以看到它的所有界面。让我们继续向下滚动。
它生成 API 密钥的逻辑如下:首先,它有一个访问密钥、一个签名、一个时间戳和一个随机节点。随机节点和时间戳是在 N8N 中随机生成的,它们会自动分配给你。只要按照我的说明操作,就能成功。关于访问密钥,登录并充值后,会出现一个界面,上面有您的访问密钥和访问密钥秘密。秘密是隐藏的。复制这两个值并粘贴到这里就可以了。我不会把它们复制到这里,因为访问密钥是不能修改的,所以我不会把它显示给大家。这个过程其实很简单。这个过程就是,你的请求内容的原文就是 URL 地址。这个地址就是我们之前讨论过的;图像生成和结果检索有不同的端点。你将它们全部映射为变量,然后检索该变量。在生成图像的过程中,你会得到这个 URL,然后使用这个连接器连接毫秒时间戳和随机字符串。这是原始文本,然后需要添加 HMAC-SHA1 加密来生成签名。这个签名就可以在后续请求中使用。当然,它还提供了 Java 和 JS 代码,但这两种代码在 N8N 环境中效果并不好。为什么呢?因为 N8N 的加密库似乎不包含这种格式。所以,我将使用我自己的方法,稍后我会讨论。但在这里,我将简要介绍如何将这些数据连接起来,然后进行加密。如何获取访问密钥和秘钥,以及如何同时获取密钥和秘钥,都有具体的流程,我都已经介绍过了。登录并充值后,复制这两个代码并粘贴到这里,我们就可以开始引用它们了。好了,我们已经完成了参数设置。让我们继续。
用于视频上传的代码节点(Google 双子座)
这是一个代码节点。导入后,您首先需要将这些可修改部分改为您自己的部分。下面是一段代码。由于谷歌的多模态视频上传文档没有原生节点,它可以上传图片,但不能上传视频。因此,我们需要在 N8N 中构建请求体来完成视频上传。首先,你需要通过文件 Google API 将视频上传到 Google。让我打开 URL 给你看看;这是中文介绍。这是一个简单的请求。首先,你需要在这段代码中使用文件 API 端点来处理文件,提取文件大小,然后上传。我在 N8N 中复制了这个过程供你使用。这是它的源代码。如果你需要参考,可以使用它。对于具体操作,我们将直接添加一个 "代码 "节点。添加代码后,我写了一段可以上传 MP4、MP3、PDF、PNG、JPG 文件的代码。让我们给这段代码重新命名。好了,处理完之后,我们可以继续添加下一个节点 "编辑字段",并将其重命名为 "视频预处理"。这需要视频预处理,因为它的 API 有一些 HTTP 请求,而不是 ID。对不起,HTTP。好吧,我们把它重命名为 "视频预处理"。
它首先发出一个 POST 请求。URL 就是我们的上传文件请求端点。在这里,你需要打开 "查询参数";请求参数使用一个密钥。这个密钥就是我们的 Gemini API 密钥。您已经通过 Gemini 在参数设置中分配了它,它是从 Google AI Studio 获取的,因为它会使用它来验证我们的身份。接下来,我们发送头信息。这个 Header 有几个参数,都是固定的 Google 上传协议。这个固定参数会添加 "上传命令",告诉它开始上传操作。添加后将生成一个 URL 或代码,告诉它上传的位置。这是 "JSON 文件尺寸",直接输入即可。对于 "内容类型",我们输入 "application/json"。设置好这些参数后,我们打开 "正文 "请求,复制并粘贴该请求正文。如果想直接使用 JSON,请使用 "Use JSON"。打开 "Expression "并粘贴;它将直接提取并处理 JSON 文件。这就是我们的端点设置。你可以再检查一遍,我还会再检查一遍,确保细节没有错误。我现在声音有点重,有点累了。我在讲解时没有任何停顿、停顿或重复,也没有任何草稿准备。我甚至没有写脚本,我把更多的时间和精力放在了视频制作上。也许我做的还有些粗糙,但我希望你们能理解我。好了,连接到这里,因为我们稍后需要上传实际文件,所以二进制数据也要提取出来。我会把它连接到这里。接下来的两个表格就可以了。
上传视频(HTTP 请求节点)
在表单之后,它会进行预处理,生成之后,我们继续添加新元素。接下来是视频上传节点。我估计这也是一个 HTTP 请求体处理过程。好的,我们先把它重命名为 "上传视频"。当然,我已经完成了这个过程,很多部分都可以简化或只用一行代码就能实现。在测试过程中,我一般会坚持使用有效的方法,不会做太大改动。以后可能会有一些多余的节点,但你只需要知道还有更好的方法。条条大路通罗马,所以这并不重要。你可以有自己的方法。密钥仍然是从我们的综合参数设置 "双子座 "中复制的。然后,向下滚动,提供发送标题的具体参数。"内容长度适合您的尺寸"。直接粘贴即可。因为我使用 Make 的方法与 N8N 不同,我经常运行 Make,因为它的语法更简单,而且可以直接点击。在使用 N8N 时,我不使用手动编写,因为它太复杂,会浪费更多时间。所以,我一般都是粘贴,不会重新运行。但在讲解上传过程时,我会解释这些请求体参数,并告诉你是否完成了上传。刚才是开始,现在是上传完成。这就是它的含义。我将打开请求正文。你需要在这里发送什么?你需要发送 N8N 的二进制文件。因为这个文件是真正经过处理的上传文件,所以它的类型是 "二进制文件"。输入数据字段名 "是 "MP4"。为什么?因为这个 "MP4 "就是您上传的二进制文件的名称。因此,您可以通过命令直接获取它。因为它会直接请求获取 MP4 二进制文件,而一旦这些进程运行,二进制文件就会丢失,因为所有内容都将是 JSON 格式。那该怎么办呢?我将使用一个聚合节点把这个文件带过来。这就是逻辑;它可以立即上传这个二进制文件。我们再检查一遍,POST URL 没问题。头部有这几个参数。下面是正文,一般是 "文件",没错,没问题。
上传请求后,它将......上传后,我们需要再次提取参数,这需要另一个代码节点,因为它是从 URL 返回的。我忘了。我们用这个代码节点重命名真正需要的数据字段。"检查视频类型"。为什么?出错了吗?你看,我在解释的时候弄混了;这部分是错的。上传视频后,需要等待。我又搞错了。所以你看,我的脑子真的超负荷了。那么,下一个是 Wait 节点吗?它需要等待一段时间,因为毕竟你需要处理一个文件,谷歌也会用一个大模型来分析这个文件。因此,你可能需要对此进行调整。我通常选择 "1 "命令,每个文件等待一分钟。如果你的文件较长,你需要增加这个时间,否则,它将无法获取地址或实际 ID。所以,大家一定要注意,这可能需要修改。所以,即使你导入了我的视频,也可以直接观看。等待一段时间后,我们将添加另一个 "编辑字段 "节点。这就是我们设置提示的地方。我为什么要创建一个新字段?这是为了方便编辑和映射,因为这是提示符最重要的位置。我们将添加一个名为 "提示 "的字段,其字符串将是一个表达式字段。我将把提示复制到这里,然后点击打开这个字段。我有意让这个提示相对简短,因为大型模型本身已经看过视频,所以你不需要定义它是什么类型或它的病毒点是什么。你只需要它来分析视频。为提示添加更多字数并不一定是个好选择,尤其是现在有了如此强大的大型模型。听着,我的提示是"人类,你的任务是准确分析用户提供的参考病毒视频,提供其成功传播的技巧、方法、视觉热点,并巧妙结合用户提供的参考图片提示中的风格和特征元素。围绕用户指定的新视频主题,设计一系列病毒式传播的图片提示进行展示。这些提示应精确复制参考视频中的成功元素,并创造性地应用图片风格,确保每个场景都具有强大的病毒传播潜力"。这就是其核心定义。
我们提供了这个提示示例供您使用。例如,我们进入 LiblibAI 并使用这个 Lora。让我们过滤一个 Lora。这是一个 Lora。如果我使用这个 Lora,这个 Lora 通常会提供一些参考提示,这些提示通常可能包含该模型中常用的关键词和大气词。因此,我们需要将这些词输入到我们的大模型中,让它将这些词与图片提示的氛围结合起来。你绝对不是在生成一个与原版完全相同的视频,而是在创建一个新的主题。因此,您也可以在这里设置自己的新主题,并指定生成多少场景图像、多少数量。这就是场景数量,所有这些都来自之前的要求。另外,是否需要在开头放置触发词?图片提示的前提条件是什么?这些都是它的输出。在输出格式方面,我要求它将所有内容封装为 JSON 格式,每个提示包含一定数量的字符,这对于 Flacks 图像最佳实践来说是最理想的。由于我目前使用的是 Flacks 1,如果你使用的是 Stable Diffusion,可以修改它,也可以在这里添加所有内容,这并不重要。我设置的提示质量相对较高,我觉得重要的是生成的内容。这就是提示。给出提示后,我们将关闭它。我们还需要打开 "其他输入字段"。全部打开都没问题。没问题。现在设置好了这个提示,我们就可以真正开始调用谷歌的多模态大型模型来分析我们的视频并生成场景了。试想一下,大模型直接使用你的场景分解并分析视频,为你生成场景。这不就是导演吗?导演最重要的任务不就是根据剧本设计视觉效果吗?现在,我们让大模型来当导演。然后,我们给它起个名字:"分析病毒视频",点击 "粘贴"。
用双子座分析病毒视频
事实上,我现在所做的大部分工作都是变相的开发;是变相的原型。如果你是一个程序员,我不敢说我能取代程序员的工作,因为程序员需要更多的冗余。我做的东西一个人就能用,但如果需要 1000 人或 10000 人使用,那就不一样了。我目前只专注于让自己能用上它。因此,对于软件开发来说,你可能需要添加计算框架或冗余机制,包括这些内容。不过,程序员可以参考我的想法,这完全没问题。事实上,我每天所做的工作基本上就是用一个月的时间简单开发一个程序;这都是有难度的。这是一个 URL,也就是你要请求的端点。重要的是:在请求模型时,你必须**更改这个。为了简化大家的操作,如果你使用的是 Flash,那么 Flash 是免费的。如果你想使用付费模型,请记住我之前告诉你的在谷歌上找到它的方法。该页面已经关闭。我来为大家打开 Google AI Studio。基本上就是这样:点击你想使用的模型。例如,如果我用的是免费模型,我就用 Flash。复制并替换它。如果你要付费,那就用专业版。我觉得专业版的效果肯定会更好,因为事实上,视频的整个创意部分都是在这里完成的。所以,我自己用的是专业版。你可以使用免费版,以后也可以更换。这是请求正文流程。这是生成内容的 "生成内容"。没问题。那么,我们继续添加并打开。查询肯定需要包含我们的密钥,对吗?这个 Key 就是我们之前在参数中设置的代码。继续添加我们的 Body,还是 JSON,使用 JSON。请求正文很复杂,粘贴吧。你看,复制文本。这是整个提示的完整部分。我为什么要求你将前一个节点中的字段进行组合和映射?这是为了方便处理这里的不同字段。该类型还使用了前一个参数;这是一个什么样的 URL?这是最重要的文件 URL,也就是你要分析的视频的 ID。所以,之前上传半天只是为了得到这个 ID。剩下的就是它的提示了。好了,它会为你分析这样一个视频。
我们继续添加。分析之后,我们需要提取这个提示,这需要 "编辑字段"。让我们添加它。我把 Expression 字段重命名为 "图像提示",然后粘贴到这里。这样使用提示就能直接从中提取 JSON,对吗?因为它本来就是这个意思。提取和解析之后,我们就大功告成了。之后,我们将添加一个遍历节点。现在,场景生成真正开始了;我们将真正生成图像。对于遍历,我们将从 "数据 "中发送并重命名。点击 "Traversal(遍历)"。这里是 "图像提示 "中的场景分解。必须是 "修复",而不是 "表达"好的,没问题。这两个节点已经设置好了现在运行它,真正测试一下。点击 "运行"。我们的主题没问题将场景计数设为 4。对于 "分支",这肯定是一个表单提交。让我们选择一个。至于 "下载媒体",我就随便上传一段视频。点击 "创建"。我们现在可以将其最小化;这不会影响任何事情,因为直接关闭它也可以。这本来就是一个......在这里,你还没有完成上传,所以我不能关闭它;我必须重新开始。好吧,"狮子"。4.选择 "表格上传"。它需要先处理"创建"。其实这部分可以自己修改,也可以直接提供一个 URL。如果是 URL,我们可以关闭它。好的,已提交。通过 Webhook 发送给我们,然后进行聚合。处理。不出所料,出现了错误。它没有得到二进制文件。我们可以检查一下,看看发生了什么。你没有启用 "包含其他输入字段",所以它没有收到二进制文件,从而导致了错误。这就是我们需要测试的原因。我的一般工作流程不会出现这种错误,但在解释时,难免会出现这些小细节和设置错误。所以,如果在测试过程中能重现错误,多测试几次就好了。
再来一次"狮子"4.选择 "表单",然后将文件切换为 "狮子 "并上传。正如你所看到的,它不再出错,因为你启用了该选项,而且它还携带了二进制文件。这样就可以了。事实上,你不必使用这种形式;你也可以为所有这些节点启用二进制选项。但我一般不这样处理,我更喜欢通过路由聚合。为什么呢?因为这个字段实际上分析的是二进制文件,所以所有这些选项都应打开,并带来其他字段,除了 JSON 数据外,还带来二进制文件进行分析,然后继续处理。而上传的文件也需要二进制文件。那么,我该怎么做呢?我会通过合并表单路由器,以 "位置 "聚合的方式,直接将这个二进制文件传给它,然后让它上传。这就是这个工作流程的复杂逻辑。因为有些节点必须有二进制文件输入,所以需要使用一些技巧,比如在模块内设置附加字段,或使用路由器从其他地方引入二进制文件。现在,它已经开始生成,等待一分钟处理。在获取文件 URI、设置提示符并将其交给总指挥后,它会为我们设计场景分解。没问题。提取之后,我们会在实际测试中注意到一个过程:它会返回一个完整的 JSON,但为什么没有解析它呢?因为你把它当成了字符串,所以这里应该是 "对象"。我没有在这里设置;我在实际视频设置中犯了一个小错误。所以,这里应该是 "对象"。然后,你告诉它这是数据,它就会帮你解析。如果没有解析,以后就无法迭代,所以我们必须再做一次。我会再保存一次,然后再走一遍这个小流程。所以,确实有很多小细节,但我自己的工作流程没有问题,我提供给你的工作流程也不会有问题,因为我已经用几十个视频测试过了,没有问题。
我们将等待整个处理过程完成(大约需要一分钟),然后再触发后续步骤。这就是表格驱动的需求处理方法。那么自动化呢?因为我经常在 Make 中解释自动化,有了自动化流程,我的每个工作流程都可以自动完成。你只需要添加这个模式。今天,我将通过这个例子,向你展示如何在 N8N 框架内生成自动化。现在,自动化是另一个节点。我们一般使用基于时间的自动化。选择 "添加另一个触发器",然后选择 "按计划"。这是一个自定义时间设置。让我们把它拖到这里。例如,我可以根据自己的设置进行修改。这是一个自动化节点。这是自动化。你想让它每天触发几次?我通常选择下午 5:00,即下午 5 点过 0 分,直接触发一次。它将每天运行一次。这是它的每日运行参数。您需要将工作流程更改为 "激活 "状态,这样自动化触发器才能真正起作用。因此,这只是一个小细节。但一旦设置完成,您就拥有了一个自动触发节点。你还可以添加更多,比如每天的特定时间,甚至每 10 分钟运行一次,只要你想。因此,它可以全天候监控。开始监控并启用该工作流程后,我们需要输入一些 "编辑字段"。你需要预先设置一些要求,因为你肯定会在表单中输入一些要求。这是主题。点击 "添加"。首先,对于 "场景计数",如果是自动的,一般都是固定的;你不会今天有 4 个,明天有 5 个。所以,你可以把它固定下来,告诉导演今天要拍多长时间,比如 20 秒。他会知道的。这意味着 1 秒钟,一个场景是 5 秒钟。对于自动化来说,图像提示示例一般不会改变。例如,如果我正在生成一种风格,那么这里的提示示例就是我们每个 Lora 模特提供的提示示例。你把它粘贴到这里,它一般是固定的,主要用于参考样式。继续添加。
参考视频:例如,您参考的是哪个病毒短视频系列?我把它放在这里。你想让它向谁学习?这些都是固定的;一般来说,生成单一样式时,我们不需要更改它们。下面有两个参数:"主题摘要 "和 "海滩"。让我来解释一下这两个参数背后的具体逻辑。我先粘贴一下。如果你想一次测试生成一个,这两个参数都适用。如果你每天都要测试,"主题摘要 "是一个选择。但如果你想要自动化,你肯定不希望每次都手动输入,而是希望由大型模型来生成。因此,我为它列出了 30 个数字。如果你有任何想要输入的主题风格,可以保持前 30 个不变,然后指定你想要生成的主题。你可以让大型模型生成几十个,或者你想要生成多少就生成多少。生成 30 个主题后,大型模型将随机选择一个主题进行生成。这就是自动化的意义。这就是主题,也是由大型模型自己生成的,但在你选定的范围内。这就是我们今天的模块设置。有了主题,接下来就是人工智能代理。添加人工智能代理等。点击 "生成主题"。AI Agent 肯定不会通过下面的对话,而是 "我需要特定的输出格式"。粘贴此提示。我还会粘贴系统提示。首先,粘贴它。我来解释一下这部分内容。点击 "功能",然后点击 "打开"。这里的意思是从您提供的几十个数字中选择一个主题,然后为其生成中英文说明,并生成相应数量的场景。这是自动生成,这是它的提示。您将收到 "主题摘要 "中的所有信息,然后随机选择一个主题。它的选择方式就是在这里随机生成。因为这是一个提示,示例场景数是固定的,主题摘要也是固定的,所以我在这里使用了一个表达式,让它自动提供一个从 1 到 30 的数字。当然,举个例子,如果 30 个不够,你要生成 100 个,那么你就把这个改成 100,再把 "主题摘要 "改成 100,它就会自动提取其中一个供你生成。为什么要提供一个提示示例?这是为了告诉大型模型如何设置氛围,比如悲伤的感觉。
好了,现在设置好了,还有一点需要修改。如果要汇总多个项目,可以使用 "海滩 "数据。例如,如果我想从 "海滩 "中选择多项,那么在映射时,就会使用 "海滩 "而不是 "主题汇总"。您必须将其更改为之前的 "海滩"。这是因为我方便您自己添加许多系列;您可以在这里自由修改这些系列。我通常会在 "主题摘要 "中保留一个项目进行测试,因此不需要输入任何内容。每次测试时,我只需点击运行,它就会只选择这一项,这样以后就更容易控制生成的结果了。如果你想要多个,只需修改即可。然后,你肯定需要添加一个模型。我们选择这个。2.5.我现在通常默认使用 2.5,它相当不错,而且免费。我们将选择 "文本解析器 "来解析它,然后选择 "结构输出"。点击 "打开"。这个字段是它根据你的提示生成的示例,所以你把它放在这里,它就会根据提示进行解析和提取。提取后,我们将对其进行重命名;这是生成的视频和内容的实际主题。生成后,我们需要添加另一个 "编辑字段 "节点来汇总字段。好了,这些字段分别是什么呢?让我们打开看看。我把它改名为 "设置参数"。第一个字段是 "视频主题",从里面获取视频主题,仍然是 JSON 格式。至于 "场景数量",我们点击 "添加",也是从之前获取的场景。这里的 "分支 "肯定有问题;"分支 "字段需要修复。这是自动提示示例。点击 "添加",我们将在这里添加提示示例。处理完这些项目后,我们将关闭它。
我们将在这里连接这些项目,将它们传递给它,然后将这个向上滑动一下,以抵消它的位置。中间这个是我们的 HTTP 请求。由于你需要二进制数据,我将在这里为你下载。下载 "分析视频",选择 "重命名",选择 "GET"。其 URL 就是你之前作为字段提供的参考视频。向下滚动,将 "响应 "改为 "文件"。没问题。好的,它在哪里?就在这里。把它拖过来。主题 "从这里分支出来,进入第二个主题。因为这部分需要一个二进制文件,所以你也要把这个二进制文件传给它,还有之前的内容。对于主题的视频分析 URL,如果是自动化操作,则需要事先输入所有这些 URL,以便自动化提供。这部分还需要一个二进制文件,我该怎么做呢?我也会把它传给第二个。好了,现在点击 "保存"。那么,两条路径都处理清楚了吗?让我们检查一下;这 4 个场景已经处理完毕。没问题,我们再测试一次。一般来说,对齐它们;这个向上,那个向下。表格,因为这部分需要二进制代码,所以要通过路由器。由于它们都打开了二进制文件选项,因此会进行选择。这部分需要二进制文件,所以它也会通过路由器将二进制文件传给它,直接从那里获取文件。它顺利地向后进行。该路径已为自动启动预设。无论是根据您提供的主题摘要还是固定的单一摘要,它都会为大型模型生成各种参数。下载视频也会发送到这里,供该模块使用。下载的二进制视频也会通过路由器直接发送到上传视频中。这就是逻辑。现在,我们可以直接点击 "运行",看看是否有任何错误。
好的,我们来测试一下。不出所料,我们又出错了。哪里出错?没有得到 MP4 文件。为什么?点击 "打开 "并查看 "下载 "部分。我没有重命名它。必须命名为 "MP4",以后才能被识别,因为以后所有文件都使用 "MP4"。无论是 PDF 还是 PNG,你都必须将其重命名为 "MP4",以便以后识别文件。所以,我会在向大家解释的同时进行更多测试,因为有很多小细节,不可能每一个都解释得这么详细。我再运行一次。其实在这里,我也可以参考图片。也可以使用 JPG 图片。例如,如果我找不到这个方向的参考视频,我该怎么办?我生成一个图像,让它生成一个 PPT 格式的图像,让它读取并理解它,然后直接从图像中进行设置。所以,别无他法。结果可以生成图像和 PNG。不过,下载文件的名称必须是 "MP4",因为它稍后需要运行。好了,现在已经开始运行了;让我们继续下一步。
图像生成循环
接下来是一个大循环。Loop Over Items "的意思不是遍历,而是一次限制一个。我也将其理解为遍历,将其设置为一次限制一个。点击 "循环",重新命名。好了,在循环之后,我们就要生成图片了。图像生成需要拼接许多 HTTP 请求。因此,让我们继续添加一个 "代码 "节点,关闭它,并将其连接到这里。关闭此节点。好的,我们把它重命名为 "LiblibAI Stitch URL"。正如我们之前将 Liblib 教程向前推进一样,它使用的 API 密钥要求我们首先用毫秒和随机字符串拼接地址。所以,让我们先缝合它。我们将使用 "Raw",即原始文本。字符串是之前的内容。这就是你知道它的原因;我们用于 LiblibAI 图像生成的综合参数设置有一个端点,然后是参数设置中的时间戳加上随机字符串。先拼接一次。拼接后,我们继续添加加密签名。"加密"。关闭"加密"重新命名在这里我遇到了一个困扰我一个月的问题在这里,我们使用的是 HMAC。对于 "类型",如果我们从下拉菜单中选择,实际上没有 SHA1。不过,我的 N8N 代码库支持这个字段。因此,我偶然选择了这个表达式。之前,我尝试过用第三方 API 请求加密,但觉得把自己的密钥给别人加密不安全。后来我又找了第三方的 "社区节点",但它们需要嵌入代码库,我也觉得不合适;我不想在 N8N 中安装许多其他东西。所以,别无他法。我测试了很多很多次,尝试是不使用代码还是直接使用代码,但都没有成功。最后,我使用了这个方法。虽然有一颗红星(表示 "不支持"),但还是成功运行了。它获取的值是拼接的结果,并在这里给出。然后,将 "秘密属性名称 "传给它,并将从我们的 N8N LiblibAI 获取的密钥放在这里,使用 Base64 格式一起加密。不过,尽管这个函数被红星标记为 "不支持",但它还是成功了。我是通过表达式实现的。所以,我其实很早就想谈谈 Liblib,但因为没有解决这个问题而一直拖着。之前,你问我是否能在某些方向上制作视频,我说有症结;就是这样,就是想不通。但现在,有一天,因为无聊,我决定修改一下,结果成功了。
然后,对于 URL,我们用代码节点进行处理,并为其命名,稍后再添加一些内容。这里生成的结果也需要用代码节点处理,因为它必须是 URL 安全的,也就是说需要替换字符串中的某些字符。URL 中不支持某些字符,因此我们需要处理生成的密码文本。这个原因就来自这里:它会生成一个 URL 安全的 Base64 签名,所以这又是一段处理它的代码。因此,我推荐使用 Liblib 的官方工具,它非常不错,可以让我们用户的工作变得更简单。这也是我第一次看到有人解释 LiblibAI,我又成先驱了。目前,有很多 N8N 工作流程,但无论在国外还是国内,你都找不到我在视频中展示的结果。你可以在任何地方搜索。因此,我可能需要很长时间才能制作视频;有时我甚至不确定自己是否能每一两个月制作一个视频。对我来说,挑战越来越大。但我希望能与大家分享这些独特的东西。即使我想谈论一些重复的东西,我也必须找到自己的创新角度,然后才能谈论它。否则,我就不讲。点击 "发送标题"。这是 LiblibAI 的实际请求。当然,在程序中,只需一行代码就能实现,但我们是在 N8N 框架内工作。"打开 Liblib 云 "是它的固定 URL,参数 "LiblibAI 生成图像 "是它的端点。它的访问密钥是什么?签名是什么?时间戳是什么?什么是随机字符串 "Nonce"?它们组合成一个非常复杂的 URL 请求。无论是生成图片还是获取内容,它们都是不同的。然后,在 "Content-Type "中选择 "application/json"。我相信,如果你今天能用好这个工作流程,就算我不做广告,你订阅 "小报童 "或喝半杯咖啡的钱也值得了。好了,把这个 JSON 复制并粘贴到这里。这是我要强调的关键部分。
这里是匹配实际图像生成参数的地方。让我们打开它看看细节。"模板 UUID "是每个所用模板的 ID,它是固定的。让我们来看看。在 LiblibAI 上,实际上可以使用行流 3。它也有一个固定的 "模板 ID"。如果使用 Xingliu 进行文本到图像的生成,也可以使用,但需要替换这个 ID。您也可以使用 LiblibAI 的自定义模型。我使用的就是这个模型。向下滚动,可以看到其完整参数 "模板 ID"。是 E10 吗?是 E10,没问题。所以,你要看清楚是选择自定义模型还是星流模型。我甚至记得它应该支持 ComfyUI。文本到图像模型的 "模板 ID "也是不同的。因此,如果您已经是图像生成专家、Lora 训练专家,那么这个工作流程就非常适合您。然后,您就可以用它来批量制作视频了。对你来说,ComfyUI 和迭代部署等参数都非常简单。所以,你可以使用这个 ID。这个工作流程在风格上非常强大;你可以在 LiblibAI 上部署你的 ComfyUI 模型,并让 N8N 调用它们。这就像增加了一些额外的东西。我忘了这个成语。就在我的舌尖上,真的忘了。这部分是用来激发灵感的。如果你是一个强大的专家,你会在这里有很多想法。
然后是 "检查点 ID",这是您主模型的 ID。如何找到它?例如,如果你要找一个大型模型,点击这里,然后点击 "筛选"。进入官方网站 打开 "气泡"对不对?这是所有大型模型的参数。我通常使用 F1 标准官方模型。你可以用 "运行次数最多 "来筛选我通常用这个。点击 "复制 "和 "打开"。有一个 UUID 版本,UUID 412B。这个参数是一个非常重要的 ID。在哪里修改?在参数设置中。让我们关闭它。在参数设置中,"主模式 ID",你需要根据你选择的模式来修改它。我会把它们全部关闭。我一般使用 F1 大型模型,也就是官方的大型模型。然后使用它的 ID,这样就可以了。当然,它也支持其他各种大型模型,比如 Midjourney realistic、AW Portrait,对吧?这些都是非常有名的模型,对吧?Midjourney,这些都是非常强大的大型模型,你只需要将它们搭配好,就可以生成图像了。选择好大型模型 ID 后,让我们继续。
接下来是 Lora ID。继续打开 LiblibAI 图像生成,点击 "打开"。提示 "肯定就是之前的场景生成提示。点击 "打开"。在循环中,有一个 "中文提示",应该是由它生成的 "英文提示",而且还带有触发词。所以,我们需要把它传到这里。然后,我会逐步解释接下来的几个参数。一般来说,我建议如何寻找模型呢?我在这里写过一篇 LiblibAI 教程。在整个工作流程中,我认为最重要的一点是,你无法控制图像到视频的生成;你所选择的模型,无论是 1.6 还是 Keling 2.1,都没有提供很多改进步骤。它可能会有一些小瑕疵;这是图像视频生成的局限性。但最重要的是,您可以**控制 Lora。因此,在寻找 Lora 时,如果您希望整个工作流程每次都能稳定无误地运行,就必须选择高品质的 Lora。什么是高质量的 Lora?高质量的 Lora 有固定的样式。例如,它生成的是乐高风格,但当你给它不同的提示时,它能准确地再现每个角色和环境,而且还具有发散性,对各种场景都有很强的概括能力。这才是好的模型。例如,我之前提到过的一位创作者 "万俊平"(指例子中使用的《罗拉》模型的作者),我对他的模型进行了大量测试。我可以根据官方网站推荐他们。打开这个。这不是真实的模型。我测试过作者的模型,几乎每个模型的成功率都非常高。为什么呢?因为如果你找到了一个好的 Lora 模型,那就意味着作者是真的在认真训练该领域的图像生成模型。老实说,你现在已经无法从表面的图像中看出区别了,每一张都很漂亮。如何判断罗拉是否优质?你要在实践中真正检验一个想法。例如,我最初生成的是微缩模型。比方说,我在找这个;我会马上找到一个很好的提示模型,点击 "生成类似",然后在此基础上,你自己生成 10 个不同场景的提示,方向是类似的。看看这 10 张图片中生成的结果是否稳定。如果稳定,就将其应用到工作流程中。稳定意味着什么?说明这个人在训练这个 Lora 模型时,标注非常细致,能力很强。他们了解生成的各种细节,而且很细心,因为我觉得 Lora 训练最重要的一点就是能够找到非常丰富的图像集,同时每张图像都能被贴上丰富的标签。这取决于个人的工作风格。因此,一旦找到一个好的 Lora,就可以尝试他们的其他 Lora 模型。另外,我为什么要使用 LiblibAI?正如我在视频 19 中提到的,对于儿童插图绘本,我们下载了模型并在 Fal.AI 框架下运行。但现在,它被加密了,所以你不能用。如果你想使用 "万俊平 "的模型,只能使用 LiblibAI 平台。这就是为什么我们整个图像生成模型要使用这么多模块来实现这个 API 请求;就是这个原因。那么,举个例子,如果我不想用 LiblibAI,想用其他平台,可以吗?那就得看看你的模型是否支持。如果有可以下载的免费模型,就可以在其他平台上使用。但我使用的模型是加密的,所以没有其他办法。这也意味着我们的规模变大了;毕竟,如果人们认真做这件事,就需要一定的回报,我支持这种行为。相反,我不支持 "免费就免费 "的想法。事实上,免费往往是最昂贵的。因此,在这里,你必须选择一种高质量的模式。这就是你的选择逻辑。让我再总结一下:找到一张图片,使用它的示例图片,"生成类似的",然后使用一个大型模型,生成几十个或十个类似方向的提示。长时间测试,因为有了 LiblibAI,您可以快速生成图片并查看其效果,还可以检查其 Lora 是否稳定。只要 Lora 是稳定的,您就可以使用它。
一旦稳定下来,就涉及到你的负面提示应该是什么。你可以参考 Lora 模型自己的负面提示,将其复制并粘贴到这里。一般来说,否定提示是固定的。然后是迭代步骤。对于 "采样器",我们在哪里可以找到它呢?让我们看看我前面提到的 "万俊平 "模型;我最喜欢的就是这个模型。它的采样器是 Euler A。我打开 LiblibAI,向下滚动。模型选择 5.5.采样方法。例如,如果使用 "千瓦时",则将其改为 15。所以,你可以根据你使用的模型,包括迭代步骤,在这里调整采样方法。有些是 30 步,有些是 28 步,有些是 25 步;您可以根据图像生成示例进行修改。例如,如果提示 CFG 为 3.5,缩放比例为-1,迭代步数为 30,则相应调整这些参数。然后,对于具体的图像生成样式,如果是 16:9,则设置为 16:9。如果是 9:16,则进行相应设置。一般来说,对于水平屏幕,我使用 1024×576;你可以切换它们。如果是竖屏,则放在顶部;如果是横屏,则放在底部。就是这样。在这里,一般固定生成一张图片。然后,对于其他 Lora 型号,您可以选择它们的 Lora ID。在这里你可以找到 "v "用户 ID 和 ID。您可以将其复制并粘贴到我们的参数设置中,设置 Lora ID,并指定其权重,有些是 0.8,有些是 0.7;您需要对其进行修改。它还支持高清分辨率修复。修复迭代步骤是什么?去噪强度是 0.7。然后是它的升频参数。你是使用 10 倍,还是更常用的 8 倍或 16 倍?您可以根据图像生成模型逐步调整。最终,您生成的图像的两个参数必须匹配:您生成的是 2 倍还是 1.5 倍。这是最复杂的部分。因此,如果你是图像生成模型方面的专家,就不需要测试;你会知道如何自己修改。你甚至可以闭着眼睛写这个。如果不懂,那就找找这些模型及其原始示例,甚至下面还有很多不同的参数。比如,如果你把这些都修改了,然后 "生成类似",就能很快提取出这些参数。就是这样。所以,你看,生成的模型质量非常高,而且最重要的是,我觉得角色是一致的,所以我们不再有角色一致性的问题,因为每个男性角色都有相同的外观,每个女性角色也有相同的外观。所以,我非常喜欢这种模式,同时也想为作者点个赞。当然,LiblibAI 上还有很多非常高质量的模型,但由于时间有限,我还没有进一步测试。我只测试了一个高质量的模型,但还有很多很多其他的模型供您测试,这也很好。各种风格。
使用 Fal.AI 生成视频
好了,我们已经详细介绍了图像生成模型,因为它涉及到复杂的参数,你需要了解如何修改。因此,请仔细聆听本节内容。它使用我们的示例来生成这一结果。好了,有了图像生成模型,让我们继续。图像生成后,我们添加一个 "等待 "节点,因为它不是实时的。点击 "等待"。重新命名。图像生成通常很快,所以我一般将其设置为一分钟。图像生成后,需要检索结果。由于端点不同,所以需要再次缝合。就是这部分。那么,让我们继续加上一个加号。LiblibAI 中有数以万计的模型,所以我必须为这些复杂的内容找到一个解决方案,提供给大家。因为它非常简单;以后,当你更换模型时,速度也非常快。如果你很熟练,只需点击一下。这个组合已经变了;它不是以前的结果,不是以前的图像生成;它是它的结果。组合吧。好的。然后,让它再次签名。对于加密方法 HMAC,我们选择 "Expression"(表达式),然后输入大写的 "SHA1"。它的 "值 "是 "JSON Raw",然后对其进行应用。然后,我们选择它的 "秘钥",并复制我们自己的秘钥,选择 Base64。这将为我们签名。然后,我们需要添加一个 "代码 "节点来处理它,使其成为 URL 安全的。然后,粘贴代码。
下面是一个 HTTP 请求,实际上是获取生成的结果。点击 "结果",然后点击 "粘贴"。好的,我们点击 "发送 POST "来查询其状态。这个 URL 也相当长;它是用之前的方法拼接起来的。打开 "页眉",选择 "内容类型",仍然是 JSON。对于 "Body",我们不需要原始层;这是生成的 ID。你可以直接在这里输入前一个字段生成的 ID,它就会检索并返回结果。我们还需要使用 "If "添加两个条件检查。因为它可能包含敏感关键字,所以会停止生成。否则,循环会发生什么情况?我会添加一个条件来检查是否包含敏感词。你知道,举个例子,即使我不加,我也可以向大家解释这个工作流程,但这样你可能就不是很稳定了。当然,我现在也不能保证我的工作流程永远稳定,但在我看来,我已经做了很多详细的测试来确保它的稳定。在这里选择 "2"。这意味着要检查它是否包含任何 "敏感 "或 "无效 "内容。因为有时你的请求正文是无效的,你需要将其包含在内。如果是敏感内容,也需要包括在内。如果包含敏感内容,该怎么办?你会怎么做?下一个,对吧?我不会浏览整张图片,我根本不会生成它。我会等一会儿。缩小一点。我有这么多内容。缩小一点,让它直接进入循环。一旦检测到敏感或无效的内容,它就会返回并说:"我们放弃这个场景吧。下一个然后,我们就可以复制它了。如果不包含敏感内容,我们就可以继续检查是否完成。点击 "重命名"。好的,返回的结果是是否存在 "图像 URL"。是否包含 "HTTP"?因为只要包含 "HTTP",就意味着存在图片。这是我经常使用的判断条件。删除此项。一般来说,如果这个字段的内容包含 "HTTPS",就意味着图像已经生成并完成,因此可以继续。如果没有完成,你会怎么做?再等一会儿,对吧?所以,我把它连接起来,让它再等一会儿。生成图像,然后等待,然后查询。查询。如果不包含敏感内容,是否已经完成?如果没有,再等一会儿。好的,继续。如果没有完成,再等一会儿,直到完成并继续。这就是结论。然后,我在下面添加了一个下载图片的节点。为什么要下载?因为稍后我们会把它交给大型模型,让它根据这张图片找到动态元素。点击 "下载图片",粘贴,重命名。点击 "响应",我们选择 "文件"。名称是 "数据";我们不需要修改它。好了,这就是我们测试的结果。我们可以先运行它,它会自动运行。因此,我们可以看到,在创建这个工作流程的过程中,我总是在发布每个工作流程之前都会详细研究内容,以了解提示是如何生成的。所以,如果你想了解这个过程,可以加入我的 "小报童 "频道,我经常会在每个视频前准备相关文档,解释我是如何从图像中生成提示的。其中的逻辑是什么?例如,如果我们点击这个网址,就可以直接跳转到我解释图片到视频提示的完整内容,包括哪些部分,以及为什么要这样设计。你可以看到,向下滚动,有一些导演的说明,对吗?画面的构造、分辨率、持续时间和使用的参数。这些都是针对不同的图像生成模型。再往下,我主要看这一部分,"结构化替换"。也就是说,如果你想把图像变成视频,就必须使用电影语言。所以,你需要这样做,对吗?在构建提示的过程中,你如何使用主体,有哪些动作,场景是什么,环境是什么,风格是什么,审美是什么?拍摄对象是如何移动、奔跑、跳跃、快乐地跳跃、快速地冲向远方的?这些东西构成了我们视频动态效果的氛围。我们在感官层面创作的短视频必须有氛围。如果缺乏氛围,视频就没有核心,没有重点。因此,如何设计这些提示,我都准备了相当长的文字。
今天,还有如何创建脚本等内容。我们可以向下滚动,看看它的主要内容类型有哪些,对吧?现在的病毒式短视频有哪些类型?如何构建提示语?如何构建角色?如果你不想看这些东西,你可以把它们发给一个大模型。将它们发送给大型模型,让它根据这些提取提示,或者为你优化提示。谷歌现在有数万、数十万个上下文窗口,因此你可以让谷歌为你优化这些提示。这些就是我们的基础。每次讲解之前,我都会这样准备我的思路。当然,我的官方网站也会更新类似的内容。比如短视频,会有吧?这两个来自 "小报童",你可以在订阅后阅读。还有 "解密 TikTok 和 YouTube 短视频"。这些都是我平时为准备此类视频而学习的内容。我希望用一种哲学的方式来学习,对吗?先认识世界,再改造世界。如果不认识世界,又如何改造世界呢?这就需要分析是什么让 TikTok Shorts 视频成为病毒视频,它们使用了哪些元素。看完这些视频后,我分析总结出短视频有三个层次:感官、叙事和概念。了解了这三个层次后,我意识到自己目前的视频创作方向是感官。既然是视觉,那我需要用什么方法呢?我使用提示语来赋予视觉效果一定的氛围。这些在我准备的剧本创作中都有涉及,也有相关的视频。这是我之前写的吧?出镜配音教程、自媒体转型指南,甚至其他工作流程。你可以经常登录我的官方网站查看。还有跨境电商的 NCA 工具、搜索引擎优化工具,对吧?这些多模式的分类都有。当然,在人工智能工具或自动化工作流程的帮助下,我现在可能已经写了 100 多篇文章了。但这并不重要,因为有时候如果你不想读,可以让一个大模型来读,总结出核心信息,这也是获取信息的好方法。我会继续用这种方式更新。
后期处理:视频拼接、音频、水印
好了,图像生成后,我们可以看到图像生成的结果。这张图片可以说是 BBC 自己拍摄的。完全没问题。看看狮子的表情、阳光、气氛,尤其是透视感,对吧?虚拟透视我觉得质量非常高,现在还有高清修复;你可以把图像做得非常高清,还可以添加不同的 Lora 模型。我觉得有了 LiblibAI,如果你真正了解它的强大功能,你就会知道你可以组合不同的 Lora 模型,对吗?不同的 ComfyUI 设置,这样整个......其实现在由于我们大模型的能力有限,我们视频生成主题的方向还需要约束。
好了,生成图像后,我们继续设置视频。我们添加一个人工智能。的确如此。你看,最新的 N8N 工作流程已经有了社区节点;你可以直接在这里安装。我还没有测试过代理。点击 "视频提示动态",然后设置这部分。我会复制所有提示。系统。表达。好的,还有其他要点吗?一定要打开 "自动通过二进制图像"。让我们再次回顾一下;这一点也相当重要。大模型已经为我们写好了场景分解,现在大模型想知道如何拍摄。这也是大模型充当导演的角色。让我们打开它。你的角色定义基于图像输入:"你是顶级叙事导演和人工智能视频专家。你的任务是深度解读用户提供的静态图像,并通过精确构思,创建高度优化的英文视频提示。这些提示应该是为人工智能图像到视频模型设计的,用于指导创作动态、流畅的 5-10 秒视频。"不是吗?它告诉它要充当导演,分析用户静态图像中的动态内容,包括主体、多主体、场景、环境、镜头风格、简单的提示练习,甚至输出格式。那么,这不就是我们文件中的内容吗?这就是脚本;这是从完整的图像到视频内容中提取出来的。正是因为我阅读了这篇长文,并对其进行了分析,我才能写出这样的提示语。所以,这是做导演最重要的第二步,你需要把影像传递给它。然后,还可以把综合参数设置中的特殊视频要求传给它,也可以把生成的图像提示传给它。这样,它就能生成图像,再次为我们充当导演。这就是它生成的图像。我们点击 "添加此 MS2.5520"。然后,我使用正则表达式对其进行处理。我们进行剪辑和添加。其实,我还是觉得工作流程不需要太多,只要方便简洁就行。所以,我不追求数量,也不会急于快速发布。也许一两个月出一次就可以了,但一定要有真知灼见。希望大家看到后,能真心支持我。支持我,可以购买我的 "小报童 "订阅,或者请我喝半杯咖啡,这样我就可以把更多的时间花在创造更好的工作流程上。
然后,对于这两个视频提示,只需使用正则表达式去除外层格式,直接提取提示内容即可。此外,我还将图片提示放在了这里。在生成图片时,你有两个选择:你可以用它来充当导演,或者如果将来你不想让它充当导演,你可以直接使用图片提示来生成。我留下了这两个选项,你可以根据自己的需要进行选择。设置完参数后,我们需要 Keling.HTTP。点击 "打开"。点击 "重命名"。这本质上是一个 Fal.AI 请求,相对来说比较简单。我先用 URL 为你设置 POST 请求。点击 "POST"。你需要注册它。如果你关注了我的 "小报童",应该已经收到了大约 $70 的点数,所以生成几百个视频应该不成问题。所以,其实今天这个工作流程是免费的。然后,粘贴密钥。我先解释一下步骤,然后粘贴请求正文,点击 "打开 JSON"。好的,这就是它的请求正文。
我们先来讨论一下这里的内容。CFG 一般设置为 0.5。我没有更改负提示。生成水平或垂直视频时,必须根据是 9:16 还是 16:9 在这里进行调整。您选择的参数必须是您的大型模型所支持的,无论是图像大型模型还是视频大型模型,只要它们对应即可。对于持续时间,我们从设置中进行选择。您可以将其设置为 5 或 10,因为 Keling 目前只支持这两个选项。对于提示,您可以选择之前的视频提示。如果想直接使用图像提示而不进行分析,则可以选择图像提示;实际上这里已经选择了图像提示。对于这两个参数。然后,URL 就是我们之前从 LiblibAI 生成的图片。因为它支持 URL,所以我直接从那里获取图片 URL 并放在这里,这样就可以了。然后,我将重点解释 Fal.AI 平台。其实,对于这个网站,我有 $22 的积分,但我记得我个人获得的积分超过了 $70。如果你想知道,我会点击这里的 "主页",然后点击 "API"。它经常会告诉你如何获得 $100-$200 积分,这也是值得的,对吗?它给模型 $10,Fal.AI 给 $20,后来又给了 $50,所以应该超过 $70,没问题。这些都是各路专家给的,我想 "极客 "就是分享的专家,我也在 "小报童 "里分享了这个好消息,让大家都能得到这样的福利。然后是 Bimi 和咖啡。对于模型,一般点击 "Excel",就可以直接从这里生成 API 密钥。在 Excel 中,打开后一般是 "image to video v6"。现在,对于 "图像到视频",Keling 已经发布了 2.1 版,或许是 2.0 版。我之前的大部分视频都是用 1.6 生成的,因为在我讨论视频时,2.1 还没有推出。现在它发布了,所以质量相当不错。您可以点击打开。如果你想使用一个特定的 URL,比如 "图像测试",对吗?如果你想使用这个视频 URL,请确保点击 "API",然后点击这里。这个 URL 就是你实际的 API 请求 URL。然后,将此 URL 粘贴到这里进行替换。我使用的是 "2.1 Master Image to Video 9",所以这个模型实际上是 2.1,而 2.2 已经出来了,我都不知道。我们可以检查一下是否有 2.1、1.6 版。不出所料,有 2.1 版。我现在用的是 2.1,刚换的。之前的大多数示例使用的都是 1.6 版,因此可以根据自己的需要修改这个位置。但要确保请求提示相似。例如,如果在这里选择 "图片转视频 v9",输入所有内容后,会直接出现请求正文,然后就可以粘贴了。这是它生成的一个小细节。有了这样的免费点数,你就可以使用它了。然后,它就会生成视频了。
然后,我们继续添加另一个 "等待 "节点,因为这部分需要很长时间。对于视频,我们目前处于感官层面。稍后,我会添加叙事层面,对吗?现在有一个非常强大的谷歌模型,VideoPoet 模型。将其改为一分钟。它现在可以产生对话,所以它可以朝着我们的场景故事方向发展。所以,其实我觉得视频领域也逐渐到了一个颠覆性的时刻。比如说纪实敏捷、Rebar可以进行结构化写作,让我们真正实现,对吧?微信官方账号、头条号的写作。视频也到了这样一个时刻。我很快就会实现自动化。如果你不学自动化,我估计你很快就会落后,因为现在很多视频其实都是人工智能生成的,非常非常多。真正的视频现在可以逐渐取代它们,包括数字人类。所以,每个人都需要学习自动化来提高视频效率。
然后,通过 HTTP 请求获取视频。我们点击 GET。复制并粘贴。然后,对于 "发送头",只需发送你的密钥即可。事实上,这也可以内置并自己创建,但为了演示时的方便,因为很多人不知道如何添加,所以这种方法更简单。所以,我把它放在这里。你在这里输入密码,它就会运行。在生成图片和请求后,它会返回一个 URL。你会得到这个 URL,也就是它的请求地址,通过这个 URL,你就可以得到视频了。事实上,红色警告是正常的,因为它还没有生成或没有正确连接。我把它连接起来,这个节点就好了。
那么,我们还要继续做出判断吗?点击 "添加",然后点击 "如果"。是否已生成?也就是说,这个 URL 是否存在?之前我们使用的是 "等于 HTTP",意思是如果存在,就可以运行。好的,如果存在,我们再添加一个 "编辑字段 "节点。最后这段视频可能要两个多小时。我花了很多时间准备这段视频,当然不只是几十或几百个小时,大概花了一个月。可以保存了"视频URL"因为谷歌有一个问题,它不会直接给你一个公开访问的链接。这是一个集合,所以我会在这里把它组合和串联起来,它会直接提供一个公开链接。因为这实际上是可以公开访问的,所以只要有公开链接,你就可以下载它。让我们重新命名它。这花了我不少时间。没问题,这就是最终的图片 URL。视频实际上已经生成。让我们点击 "打开",看看之前测试过的 "晚霞为大草原披上金装"。5 秒钟,没问题吧?"晚霞为大草原染上金色",没问题。生成良好。
保存并最终确定工作流程
好了,在设置并提取参数后,我们需要考虑分支问题,因为现在我们有了一个表单。让我们使用 "切换 "节点来进行判断。点击 "分支判断",然后点击 "重命名"。既然有了表单,如果没有最终的表单结尾,工作流程就会出错。因此,我们需要在这里做出判断。让我们对其进行分支。重命名,打开"自动化分支"在这里,我们一般选择 "内容""表单 "粘贴"自动化 "是复制粘贴的。这意味着它会根据这个分支的走向来决定去向。如果它指向表单,那么我就有了一个节点,可以稍后返回表单。如果不是,我就不会去那里。如果是表单,我们将添加一个 "表单 "节点,一个 "表单结尾"。点击 "重定向视频",重命名。好的,它会返回所有文本,你也可以直接重定向到视频,这样也可以。这个 Radio 可以粘贴视频。这取决于你。我刚刚返回了一个 TXT 日志,使其在 1.1 分钟内结束,否则工作流会一直运行,所以我限制了它的时间。这就是重定向。关闭并向下滚动。之后,我们就可以保存到 Notion 知识库了。对于 Notion,我们选择 "创建新数据库页面 "并连接。你的判断条件是,如果它进入表单,我就返回表单并保存。如果没有进入表单,则直接保存到 Notion。在这里,我选择我的 Notion 账户,选择 "自动视频",然后选择你的 Notion 知识库。整个标题通常是根据工作流 ID 加上执行 ID 确定的;这两个是唯一的。事实上,你只需添加一个视频链接,将最终的视频链接粘贴到这里,然后再粘贴到 Notion 中。好的。把它重命名为 "保存视频",点击 "重命名"。好的,那么是哪个 Notion 模板呢?非常简单:只需一个标题和一个视频链接。你可以自己创建一个。这意味着所有生成的视频都将自动保存在这里,并将执行 ID 和工作流 ID 结合在一起。这基本上就是直接保存。当然,您还可以采用其他多种形式;最终,它将保存到 Notion 知识库中。
好了,今天我已经带大家了解了这个过程。现在,让我们对齐它,并进一步解释细节。如果你正在使用这个工作流程,你应该怎么做?导入后,首先将工作流程更新到最新版本。你看,已经有了另一个更新版本,即 1.95.2。如果你不知道从哪里更新,我的 "小报童 "有专业的更新教程。导入后,您主要需要修改参数设置的内容。您不需要输入任何 JSON 格式的字段。不过,您可以先使用默认的音乐 URL 进行测试。在试运行时,您可以保持主模式和 Lora 的原样。触发词也是固定的,图片也是固定的。最重要的事情在后面,我现在就不多说了。你需要用自己的 API 密钥替换一些 API 密钥,比如双子座 API。如果一些初始输入被我修复了,那也没关系,你可以自己运行它。运行后,首先找到你想复制的新样式。例如,我想再次使用带有 Flex 1 的 Lora,我该怎么做呢?我点击 "筛选",选择。当然,对应的基本款是 Flex 1。好的,然后找到你的 Lora。例如,您可以按 "运行次数最多 "进行筛选,这是最强大的型号。还可以按照 "最热门 "进行筛选。找到一个之后,比如说,我想生成人物肖像。因此,对于我们之前看到的逼真人物肖像,手部有轻微瑕疵,我可以使用这个。点击打开。它有手部修复插件吗?然后进行测试。例如,点击 "生成相似",然后测试二十几次。如果没有问题,就复制这些参数,例如,正提示,然后粘贴到提示示例中。修改生成场景的数量。例如,在制作人物肖像时,我会找一个参考视频,即豆瓣上的一个病毒短视频,然后下载下来。然后,我会把它上传到我的谷歌云存储,并获得一个直接链接。这个直接链接可以直接下载。然后,你可以输入自己的提示,例如,生成日式、韩式或台式图片,都没问题。你可以把它输入到提示中。生成并修改参数后,就进入了最重要的部分:配置。您可以根据自己的 LiblibAI 模型修改这里可能用到的所有参数,然后逐步测试。
我建议您观看整个工作流程,因为它相当复杂。首先,您需要在谷歌云上配置和部署 NCA 工具包。绑定信用卡后,您还可以使用谷歌支持的专业模式。您可以随时监控账单,避免意外收费。例如,如果快到限额了,请关闭项目并停止试用。然后,你可以打开一个新的项目,完全免费地创建这个工作流程。此外,请关注 "Small Newsboy",查看我发布的任何免费方法;这些都是申请这些积分的实践教程。好了,如果你已经使用了这个工作流程,并想扩展它怎么办?那你就需要很好地理解我的工作流程。例如,如果我想添加 Google 的模型,我该怎么做?你可以在 Fal.AI 这里修改,切换到不同的模型。比如,我想添加 ComfyUI,你就修改 ComfyUI。更重要的是,您还能在这里解决角色配音的生成问题吗?你可以在这里总结一下角色配音的生成。这些都是可以实现的。例如,添加特效或字幕,只要你能想到的,今天的这个工作流程都能实现。
今天我的视频到这里就结束了。如果你看了这么多,因为我的长视频完成率真的很低,希望大家能继续点赞、评论,支持我的 "小报童 "和 "比米咖啡"。我也会尽我所能,认真专注地打造高质量的工作流程。希望大家每次看我的视频,都能学到一些东西,或者看到我认真对待这里的小细节,给大家一些启发和成就感。你也可以在我的基础上开发出更高质量的工作流程,并与我分享;这也很好。今天的视频到此结束。视频 33,病毒式短视频。我的第一个视频。今后我会继续更新。因为 Make.com 需要找到合适的应用场景;不是我不发布,而是我只在有好的、创新的应用场景时才发布。至于有没有症结所在,那就不是我能决定的了。Make.com 也更新了很多功能,我会继续发布相关视频。所以,这基本上就是 Make.com 加 N8N。希望大家喜欢这段视频。下次再见。