《哪吒》有多好看?我觉得全片重点在这!

2019年08月21日 由 sunlei 发表 885293 0


41亿+


 

电影《哪吒之魔童降世》自 7 月 26 日上映以来,一直在刷新动画电影的票房纪录。截止目前,全网票房突破40亿,观影人数超过 1 亿!成为了首部观影人数破亿的动画电影。也即将成为内地最卖座电影。

 



 

从各平台的评分来看,猫眼9.7分,淘票票9.5分,豆瓣8.6分,一路居高不下,好评不断。

《哪吒》为什么会爆,一个重要原因是主创团队历时 5 年的细致打磨。在这漫长的制作过程中,影片中的故事与感情线分外出彩,还有一个不得不提的就是:特效!

 

[caption id="attachment_43034" align="aligncenter" width="504"] 电影里万龙甲由来片段[/caption]

 

导演饺子接受央视采访,谈到网络流传的「离职特效师」故事,“申公豹那个变身的特效,变成豹子头然后长毛。特效公司一员工磨了两个月,死活没有把那几秒钟磨出来。最后,深深受挫的他,干脆离职了。

我们只好再找一个新公司,结果正好是那个特效师跳槽去的那个公司。然后老板说,听说你之前就做这个镜头,已经很有心得了吧,这个申公豹咱还是交给你。最后他死活还是算把那个镜头给磨出来了。

所以如果有人问我,人能否改变自己的命运,我不晓得。但我晓得让申公豹长毛就是他的命。”

 



 

这部时长 110 分钟的动画电影,共经历了 66 次剧本修改,有 20 多个专业外包团队,1600多位动画制作人员参与制作,全片共有 1400 多个特效镜头。

把特效完美的呈现出来,也是当代每一个中国特效工作者的使命。

 

[caption id="attachment_43035" align="aligncenter" width="596"] 小哪吒被砸之后,还可以看到肚皮在微微地抖动[/caption]

 

特效片有多火?


 

2018年全球电影票房排名前十的影片中,其中特效片占比90%,总票房达100亿美元。

比如《复联3》全片有2680个特效,只有4个镜头没使用特效,而《复联4》则包含超过3000个特效镜头,所占比例可能达到99.85%。

 



 

特效如此难搞,那么人工智能技术是否能在其中助推多个环节的进展?

其实,早就电影《阿凡达》时候,导演们就已将人工智能中的数据特效应用在制作中了,AI+特效涉及了动作捕抓、虚拟角色构建、模拟动力学和自然现象等多个场景,采用这样的特效以达到最逼真的观众观看体验。

如果未来,人工智能的加入可以使制作流程更加高效,解决制作难题,将会有更多的优质电影等上大荧幕,同时给动画行业带来新的契机。

 

解放原画师:AI 线稿上色


 

动画的制作过程中,基本的环节就是完成画稿的绘制,而对这些画稿完成上色,则是一项浩大的工程。

 

[caption id="attachment_43019" align="aligncenter" width="1080"] 值得一提的是,哪吒的形象前后设计了 100 多个版本[/caption]

 

对于普通的 12 帧率动画,按 25 分钟计算,需要 18000 张图画。对于一个 10 人的团队来说,约需要 2 个月才能完成。

但基于 AI 的工具,效率会得到极大的提升。比如当下最优秀的技术,完成一集动画仅需 2.5 小时,效率提升达到了 2000 倍之多。

最近在 GitHub 上星数过万的 Style2paints ,就是这样一个充满魔力的绘制工具。通过它,制作人员能够快速完成复杂的上色流程。

 



 

有四个步骤:从线稿开始,右上角上平面颜色 ,左下角加入有梯度的颜色,右下角加入阴影

Style2paints 由苏州大学和香港中文大学的研究者共同打造,最新版本已升级到 V4。它也被评为最好的线稿上色 AI 工具。

Style2paints 基于无监督的深度学习,通过风格迁移和 GAN 技术,将线稿原画变成饱满的彩色图画。

整个过程分为两个阶段,第一阶段将草图渲染为粗略的彩色图画。为完善画面,第二阶段会识别其错误并进行细化,以获得最终结果。

而使用起来也很简单,只需画师完成线稿,然后通过鼠标点击,就能得到饱满的彩色画稿。对于要求高的画师,可能还需要些许的微调。

 

[caption id="attachment_43021" align="aligncenter" width="1080"] GitHub 上的操作指南[/caption]

 

解放动画师:神经网络自动补帧


 

动画电影的制作中,有关键帧和中间帧之分,中间帧是串在两个关键帧之间的画面,起到衔接和让画面流畅的作用,但其制作却是动画中耗时严重的过程。

 

[caption id="attachment_43022" align="aligncenter" width="760"] 深色的三个动作是关键帧,浅色的是中间帧[/caption]

 

如果给出一段视频的相邻的关键帧,让 AI 去补充出中间的画面,工作量就会大大减少。

谷歌 AI 前段时间公布的生成模型,就是按照这个思路,在一定程度上解决了问题。

 

[caption id="attachment_43023" align="aligncenter" width="1080"] 模型示意图[/caption]

 

他们发布的这套 AI 系统,包含一个完全卷积模型,由 2D 卷积图像解码器,3D 卷积潜在表示生成器,和视频生成器组成。

通过将图像解码,除了将输入视频信息解码,还将目标视频的信息映射到潜在空间。而潜在表示生成器将两种信息合并,最后由视频生成器解码达到预测的中间帧。

AI 生成的视频帧序列,在风格上与给定的起始帧和结束帧保持一致,而且整体看起来很顺滑。令人惊喜的是,此方法可以较长的时间段内实现视频生成。

 

[caption id="attachment_43024" align="aligncenter" width="600"] 使用 Kinetics 数据集从静态图像创建出的视频[/caption]

 

在他们的研究中,一些视频的生产效果喜人,但也有一些复杂的视频,出现了奇怪的画面,仍待改进。

 

解放导演:文本生成动画


 

当然最惊喜的功能,也许要数 AI 直接从剧本生成动画。那些无法做出来的场景效果, 也许在 AI 手中,会得到解答。

在前段时间,迪士尼和罗格斯大学的科学家发表了一篇论文,介绍了一款用文本描述生成动画场景的 AI 模型。

 



 

要让 AI 实现从文本到视频的生成,需要其「理解」文本,然后生成对应的动画。为此他们采用了多个模块组件的神经网络。

这个模型包含三个部分,一是脚本解析模块,自动将剧本文本中的场景解析出来,然后是自然语言处理模块,能够提取出主要描述句子,并提炼出动作表示,最后是一个生成模块,将动作指令转化成动画序列。

 

[caption id="attachment_43026" align="aligncenter" width="1080"] 模型的流程示意[/caption]

 

研究人员,从可自由获取的电影剧本中,搜集了上千个剧本,从中选取了其中的 996 个,编写了场景描述语料库。

这个语料库由 525,708 个描述组成,包含 1,402,864 个句子,其中 920,817 个包含有至少一个动作。

建立起描述和视频的映射,从而通过输入剧本,能够生成简单的动画片段。在测试实验中,生成动画的合理性为 68%。

虽然该系统还依赖于语料库,不能百分百完成文本到视频的生成,但在动画制作上带来了新的方向。

 

[caption id="attachment_43027" align="aligncenter" width="640"] 迪士尼还研究过自动生成与语音相匹配的动画口型[/caption]

 

随着AI技术发展,AI未来会渗透到各个动画制作的各个环节。日本有动画人曾提出一个观点,认为未来在动画制作过程中,除了对完成品的检查以外,所有的动画制作步骤都可以由人工智能来完成。 或许,未来随着科技的发展,真的可以实现完全的人工智能,比如你给电脑一段剧本,TA就自动生成一段动画。

期待未来的技术发展,也许用不了多久,我们就能看到更多可以颠覆《哪吒》这样的经典之作。
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消