首页 > 灵异恐怖 > 大白话聊透人工智能 > AI怎么“插手”影视制作:从写剧本到上热搜全讲透

AI怎么“插手”影视制作:从写剧本到上热搜全讲透(2/2)

目录

第一,“挑素材”:AI会分析每一段素材,找出“主角在打斗”“画面清晰”“没有多余物”的片段,比如从100小时里挑出20小时有用的素材,不用后期人员自己找。

第二,“拼顺序”:AI会根据剧本的剧情顺序,把挑出来的素材拼起来,比如“先拼主角被坏人围攻的片段,再拼主角反击的片段,最后拼主角打赢的片段”,不用后期人员手动拖放。

第三,“调节奏”:AI会根据背景音乐的节奏调整片段长度,比如背景音乐的鼓点很密,AI会把每个打斗片段剪得短一点,比如1秒换一个镜头,让画面和音乐更配;背景音乐变慢的时候,AI会把片段剪得长一点,比如3秒换一个镜头,让节奏更舒缓。

这样AI能在1周内剪出一个“初版剪辑片”,后期人员不用从零开始,只要在初版的基础上改一改:比如“把第10分钟的打斗片段再剪短一点”“把第20分钟的背景音乐换成抒情的”,大概花1个月就能完成剪辑,比以前快了2倍。

现在很多短视频平台的“短剧”也在用AI自动剪辑。比如拍一部10分钟的短剧,拍了2小时素材,AI能在10分钟内剪出初版,后期人员改改细节,半小时就能上线,大大加快了更新速度。

用大白话聊(续)

3.生成特效:AI让“暴雨、烟雾、人群”不再费钱费时间

说到影视特效,大家可能会想到《阿凡达》里的潘多拉星球,或者《流浪地球》里的行星发动机——这些炫酷的特效,以前全靠“特效师手动抠图、建模”,一个简单的“暴雨场景”,可能要几个特效师做一周;要是遇到“千军万马的战争戏”,更是要做几个月,不仅费钱(按秒收费,一秒可能要几千块),还容易出bug(比如人群动作重复,看着像“复制粘贴”)。

现在有了AI,做特效就像“搭积木”一样简单,而且又快又便宜。

先说说“自然特效”,比如暴雨、烟雾、火焰、雪花。以前做“暴雨戏”,特效师要先画“雨滴的形状”,再调整“雨滴的速度和方向”,还要让雨滴落在演员身上、地面上有“溅起的水花”,每个细节都要手动调,一个镜头可能要做3天。现在用AI,只要告诉AI“要一场‘倾盆大雨’,雨滴要密,落在地面上有明显水花,还要有风吹着雨斜着下”,AI会自动生成雨滴、水花,还能根据演员的动作调整雨滴的位置——比如演员抬手挡雨,雨滴会落在他的手上,而不是穿手而过,一个镜头1小时就能搞定,成本直接降了80%。

再说说“人群特效”,比如古装剧里的“皇宫庆典”,需要几千个群演;战争片里的“战场厮杀”,需要上万个士兵。以前做这种特效,要么真的找几千个群演来拍(成本高,还不好管理),要么用“复制粘贴”——先做几十个群演的模型,再复制成几千个,但动作都一样,看着很假。现在AI能生成“独一无二的人群”:AI会给每个“虚拟群演”设计不同的动作(有的在聊天,有的在走路,有的在挥手)、不同的衣服(有的穿红色,有的穿蓝色,有的戴帽子),甚至不同的表情(有的笑,有的严肃),几千个人看起来没有一个重复的,就像真的群演一样。

比如拍一部古装剧的“登基大典”,需要1万个群演站在皇宫广场上。以前用手动建模,可能要做1个月,还容易出现“动作重复”的问题。现在用AI,2天就能生成1万个“虚拟群演”,每个都有自己的动作和衣服,后期直接把这些虚拟群演“放”到皇宫广场的背景里,不用找真群演,也不用花大价钱租场地,省钱又省时间。

还有“场景特效”,比如科幻片里的“外星城市”、仙侠片里的“天宫”。以前做这种场景,特效师要先画“城市的图纸”,再建“3d模型”,还要给建筑加“灯光、纹理”,一个场景可能要做半年。现在AI能“根据文字描述生成场景”:比如告诉AI“要一个‘未来外星城市’,建筑都是流线型的,会发光,天上有飞舰,地面上有悬浮的汽车,背景是紫色的天空”,AI会自动生成这个场景的3d模型,还能调整细节——比如把“飞舰的数量增加一点”“建筑的颜色换成蓝色”,一个场景2周就能做好,比以前快了10倍。

4.调色:AI帮着“给画面上色”,不用再“一帧一帧调”

拍出来的raw素材(没处理过的画面)通常是“灰蒙蒙”的,没有电影感——比如拍出来的“夕阳戏”,天空是淡红色的,演员的脸是暗黄色的,不好看。这时候就需要“调色”:把天空调成“橙红色”,把演员的脸调成“自然肤色”,让整个画面更有“氛围感”。

以前调色全靠“调色师一帧一帧调”。一部电影有几十万帧画面,调色师要对着每一帧调整“亮度、对比度、饱和度”,比如“把第1000帧的天空亮度提高一点”“把第2000帧的演员肤色饱和度降低一点”,一个镜头可能要调2小时,一部电影要调几个月,而且很容易出现“前后画面颜色不一致”的问题——比如前一帧天空是橙红色,后一帧变成了粉红色。

现在AI能“自动调色”,还能保证“颜色统一”。比如把一部电影的素材导入AI,告诉AI“这部电影是‘悬疑片’,整体色调要偏冷(比如蓝色、灰色),只有主角的衣服是红色,突出主角”,AI会做两件事:

第一,“统一色调”:AI会分析所有画面,自动把整体色调调成冷色,把主角的衣服调成红色,不用调色师一帧一帧调,一个镜头5分钟就能调好,一部电影1周就能完成调色,比以前快了10倍。

第二,“匹配场景色调”:AI会根据场景的“情绪”调整色调——比如“主角被追杀的戏”,色调会更暗,蓝色更浓,营造“紧张感”;“主角回忆童年的戏”,色调会变亮,加一点暖黄色,营造“温馨感”。而且AI会保证“同一场景的色调一致”,不会出现“前一帧暗、后一帧亮”的问题。

比如《隐秘的角落》这部剧,整体色调偏冷,只有“主角和家人吃饭的戏”色调偏暖,突出“家庭的温馨和外面世界的冰冷”。要是以前,调色师要花1个月来调整这种“冷暖对比”,现在用AI,1周就能搞定,还能让色调的过渡更自然。

四、宣发:AI帮着“让电影上热搜”,精准找到“想看的人”

电影拍完、剪好后,还得“让观众知道”——这就是“宣发”(宣传和发行)。以前宣发靠“拍个预告片、印点海报、在电视台打广告”,花钱多,还不知道“这些广告有没有用”——比如在电视台打了100万的广告,可能只有100个人因为这个广告去看电影,性价比很低。

现在AI能帮着“精准宣发”:知道“哪些人会想看这部电影”,然后把“预告片、海报”推给这些人,还能预测“哪个平台的宣发效果最好”,让每一分钱都花在刀刃上。

1.生成“个性化海报、预告片”:你刷到的海报,可能和别人不一样

以前电影的海报、预告片都是“统一的”——不管你是18岁的学生,还是35岁的上班族,刷到的都是同一张海报、同一个预告片。但其实“不同的人喜欢的点不一样”:学生可能喜欢“电影里的爱情戏”,上班族可能喜欢“电影里的职场奋斗戏”,统一的海报、预告片可能抓不住所有人的注意力。

现在AI能生成“个性化的海报、预告片”。比如一部“青春爱情职场片”,AI会先分析“不同人群的喜好”:

-对18-25岁的学生:AI生成的海报会突出“男女主角的甜蜜互动”,预告片会剪“爱情戏的片段”,比如“男女主角在校园里牵手、拥抱的镜头”,推给学生群体。

-对26-35岁的上班族:AI生成的海报会突出“女主角在职场上奋斗的场景”,预告片会剪“职场戏的片段”,比如“女主角在会议室里演讲、解决工作难题的镜头”,推给上班族群体。

-对36-45岁的家长:AI生成的海报会突出“电影里的家庭温情戏”,预告片会剪“主角和家人互动的片段”,比如“主角陪父母吃饭、聊天的镜头”,推给家长群体。

这样每个人刷到的海报、预告片都是“自己喜欢的类型”,更容易被吸引,愿意去看电影。比如某部电影用AI生成了10种不同的海报,推给不同人群后,“想看人数”比以前用统一海报的时候增加了50%。

2.精准“找人”:把广告推给“最可能看的人”

以前宣发是“广撒网”——不管你喜不喜欢这种类型的电影,都可能刷到它的广告,比如你喜欢“恐怖片”,却刷到了“动画片”的广告,你不会感兴趣,广告就白打了。现在AI能“精准找人”:通过分析你的“观影记录、搜索历史、社交动态”,判断你“是不是这部电影的目标观众”,再把广告推给你。

比如AI分析你的数据后发现:你过去半年看了5部“青春爱情片”,在社交平台上分享过“校园恋爱”的话题,还搜索过“这部电影的主演”,AI就会判断“你很可能喜欢这部青春爱情片”,然后把这部电影的预告片、海报推给你。而如果你从来没看过青春爱情片,也没搜索过相关话题,AI就不会给你推,避免“浪费广告资源”。

比如某部动画电影,AI通过分析用户数据,找到了“过去1年看了3部以上动画片、年龄在3-12岁的孩子家长”,把电影的广告推给这些家长。结果这些家长里,有30%的人带孩子去看了电影,比以前“广撒网”的宣发效果(只有5%的转化率)好太多。

3.预测“宣发效果”:提前知道“哪个平台最管用”

宣发要选“平台”——比如在抖音发预告片、在微信朋友圈发海报、在微博上搞话题。以前选平台靠“经验”:比如“年轻人都用抖音,就在抖音发预告片”,但其实可能“这部电影的目标观众虽然是年轻人,但他们更喜欢在b站看视频”,结果在抖音发了广告,效果不好。

现在AI能“预测不同平台的宣发效果”。AI会分析“过去类似电影在不同平台的宣发数据”:比如“和这部青春爱情片类似的《xx电影》,在抖音发预告片带来了10万想看人数,在b站发带来了15万想看人数,在微博发带来了8万想看人数”,然后给出预测:“这部电影在b站宣发效果最好,其次是抖音,最后是微博,建议把60%的宣发预算放在b站,30%放在抖音,10%放在微博”。

剧组按照AI的建议分配预算,就能“花最少的钱,获得最好的效果”。比如某部电影按照AI的建议,把主要预算放在了b站,结果在b站带来了20万想看人数,最终票房比预期多了3亿,宣发性价比翻了2倍。

五、AI不是“取代人”,而是“帮人做得更好”

看到这里,你可能会问:“AI这么厉害,会不会取代编剧、导演、特效师?”其实不会——AI只是“工具”,就像厨师的菜刀、画家的画笔,它能帮人“省力气、提效率”,但不能取代人的“创意和情感”。

比如编剧用AI生成了剧本大纲,但“主角为什么要做这个选择”“这段对白里藏着什么情感”,还是要靠编剧去琢磨;导演用AI生成了分镜,但“这个镜头要表达什么情绪”“演员的动作要怎么设计”,还是要靠导演去判断;特效师用AI生成了特效,但“这个特效要怎么和剧情结合”“怎么让观众觉得‘真实’”,还是要靠特效师去调整。

就像《流浪地球》的导演郭帆说的:“AI能帮我们快速生成100个‘行星发动机’的设计图,但最终选哪个、怎么改,还是要靠我们对‘中国科幻’的理解——我们要让发动机有‘中国工业风’,要让观众看到它就觉得‘这是我们中国人造的’,这是AI做不到的。”

而且AI还有“缺点”:比如它只能基于“过去的数据”生成内容,要是遇到“从来没见过的创意”(比如《流浪地球》这种“带着地球去流浪”的想法),AI就没法给出好建议;它也不懂“人类的复杂情感”,比如“主角失去亲人的痛苦”,AI能生成“主角哭的镜头”,但没法让这个镜头“打动观众”,还是要靠演员的表演、导演的调度。

所以,AI在影视制作里的角色,不是“取代者”,而是“伙伴”——它帮人把“繁琐的、重复的工作”做了,让人有更多时间和精力去做“更有创意、更有情感的事”,让电影变得更好看、更有深度。

最后:未来的电影,会因为AI变得更“多元”

以后,可能会有更多“小成本、有创意”的电影因为AI而诞生——比如一个独立导演,以前因为“没钱请编剧、特效师”,没法拍自己想拍的故事;现在用AI生成剧本大纲、做特效,花很少的钱就能完成一部电影,然后通过AI精准宣发,让喜欢这个故事的观众看到。

甚至可能会有“个性化电影”——比如你看电影的时候,AI能根据你的喜好调整剧情:你喜欢“大团圆结局”,AI就给你看主角成功的结局;你喜欢“悬疑结局”,AI就给你看主角留下谜团的结局。虽然现在这种技术还不成熟,但未来很可能会实现。

总之,AI不是“改变影视制作的本质”——影视制作的本质还是“讲好一个故事,打动观众”,但它会让“讲好故事”的过程变得“更简单、更高效、更多元”,让我们看到更多“以前看不到的好电影”。

目录
返回顶部