【转载】使用3DEqualizer和maya,matchmoving 进行追踪工作

23 十二月, 2013
304
0

作者:Albrecht Steinmetz
原文地址:http://www.3dequalizer.com/index.html?site=tech_docs&id=100316_01
翻译:陈成

在电影工业中matchmoving 是一项看不见得特效,是一道将CG和实拍结合到一起而不可缺少的工序,这次Weta Digital的镜头部门有一项挑战,为阿凡达制作300个立体镜头。本期主角Albrecht Steinmetz,一直工作在电视电影领域的一位高级Matchmover,参与过的作品有 指环王三部曲,金刚,可爱的骨头 等等。这次他将为我们解释在阿发达中面临的挑战。

1005092150e3b392580cc06567.jpg.thumb

“我一直执迷于把CG的东西结合到实拍的影片之中,节气人啊或者其他什么生物能和真实演员进行互动,或者将CG的场景放到真实影片中,使影片看起来壮阔,在阿发达中我们主要做的就是将真实的演员景融入到CG场景之中,这次是立体的项目(stereo project),就意味着我们要一直处理2组实拍的片段,他们是左眼镜头和右眼镜头,我们之前没有做过立体的项目,而这次更糟糕的是,左眼镜头和右眼镜头之间的间距 (interocular),交点(convergence),焦距(forcal length)可以在同一时间改变,这真是个新的概念。

1005092150c0a2585053bd8ba3.jpg.thumb

这套相当复杂的拍摄设备Fusion 3D Camera System(由J.Cameron and Vince Pace研发)可以同事拍摄2组视频,一组左眼,一组右眼来模仿人眼的立体视觉效果,与其同时我们需要在maya中建立的两个镜头来模拟真实摄影机的运动轨迹,这就意味着,左右摄影机之间的距离(interocluar)的改变,交点(convergence)的改变,镜头推进,都会带来很大工作量,远远超过普通的单眼相机(mono camera)

通过使用3DE,我们可以客服困难的工作;调整区分,并且同事模拟计算左右眼的间距 (interocular),交点(convergence),焦距(forcal length),并且生成的镜头可以非常准确的匹配他们拍摄的视频片段,有了这些镜头,我们就可以把他们交给 动画和合成部门进行后面的工作了。

1005092150971c44c3d18245ba.jpg.thumb

当我们要缩放3D场景的时候,我们需要用到”survey”(测量)的工具,一般绿屏上的黑点(tracking marker)的间距.当这些点在3d软件中时候,我们需要给他指定距离,这样就可以准确的在3d软件中映射出真实场景的尺寸和深度,尤其是深度,对立体电影影响更大,要求也更精确,而且用过survey我们可以将复杂困难的镜头也保持相当的精准度,保证cg镜头更符合真实镜头的轨迹。

很幸运的是我们有很多survey的数据,(就是说拍摄的时候信息很全,比如绿屏上小黑点的间距。摄像机高度,交点距离,旋转角度,等等)但是我们有时候也会遇到很多困难的情况,比如那些信息不够全面,比如下面这种情况,我们要扩展一个cg场景而我们对这镜头的信息不够全面,3DE可以给我们提供很多帮助,我们用之前onset组提供给我们的一些图片(很多大制作的电影会在拍摄的时候,尽量收集周围的信息,比如拍摄的物体之间的距离,镜头高度,镜头角度,有的时候还有witness(目击者)镜头,这些镜头拍摄的东西不会在影片中出项,但是会在后期合成的时候同过witness镜头尽可能的了解当时拍摄时候的场景。)我们把这些图片放到3de里面,计算出相机的相关信息。(这段翻译的不好,具体的意思我也很迷糊,但是大概是我翻译的那意思。。。。)

10050921509fb86610ab0e5cf8.jpg.thumb

我们使用的每个相机,都有一个gridshots.(gridshots,就是一帧静止的图片,上面有很多黑白的方块小格子,不同的焦距所产生的镜头扭曲不同,尤其是很多短焦距的广角镜头,比如18mm镜头,都会在照片的边缘处产生扭曲,如果有扭曲的话,追踪软件很难计算出正确的镜头轨道,所以Undistorted(把扭曲变直)是很多情况下做的第一步。)而且这些gridshots可以用在很多合成软件中,比如nuke或者fusion,AE等等)如果没有gridshots的话,很多动作复杂镜头和广角镜头的追踪工作会变得很困难,更不用说是要同事处理2组镜头的立体项目了。

有这么一个镜头,我们没有survey,也没有镜头信息。但是我们还需要一个CG镜头来建立扩展,而且还有要个移动的物体要放到这个场景中。所以我们找来一个相似的片段,用3DE的‘guestimates’作为起始点,然后重新计算,看看能否奏效。 (这段翻译的也不好,因为没用过3DE 不知道 这个工具的工作,知道的朋友请指点)

10050921504bb328aff5c2105a.jpg.thumb

还有一个镜头也是非常有难度的,我们有个一些cg元素,有个一个从绿屏扣下来的演员,因为还有一个我们的女主角要出现在这个镜头中,另外还要有个CG的玻璃面罩在jack的脸上,每一个都要求很完美才能顺利完成这个镜头,我们怎么做呢,通过观察我们发现这个片段的左右镜头基本很相近,所以我们只选取一个镜头,作为主镜头,另外一个镜头通过3D/2D的一些工作在软件中制作(这个没具体讲我说说我们的经验,这样在单独镜头下完成主要的工作,然后通过一些信息对另外一个镜头进行设置,其中通过软件生成一个主镜头,一般是左镜头,有时候也右镜头,然后再maya里面通过脚本,(具体我也不会,但是我会告诉你脚本的目的)脚本生成另外的一个镜头,其中很有很多参数可以调节,比如I/O, convergence,这两个是最主要的数值,其次,还有生成镜头的旋转,移动,都可以在maya的channel box里面调节,比如叫做x-correct就是x轴的旋转,y-correct是y轴旋转,y-shift。镜头的高低改变,x-shift镜头的左右位移,z-shift镜头的前后位移。通过调节在maya里面模拟另外一个我们抛弃的镜头,为什么我们只用一个镜头?因为多数软件不支持在立体镜头追踪的时候,同追踪里面的物体(ojbect tracking).但是如果是单镜头(mono镜头,我也不知道为啥不叫single camera)的话,就会比较容易在软件里面追踪很多物体。)

我们通过一个很灵活的工具,把我们的cg镜头放到我们的cg场景中,那些纠正过的plates,多边形,一些硬体的物体,一些软的物,都可以放进去,另外我们还能提供很多2D追踪信息,这样我们可以把一些实拍的细小的景物也能最终合成到影片中,同时我们还能把一些card rigs放进去,他们介于2d和3d之间。(个人理解card rigs 应该是一个片,可能是polygon片,上面可以附上一些其他元素,然后放到场景中。在镜头旋转不强烈的情况下,很难看出他是一个片儿,个人理解。。)

在做一个非3d项目的时候,那些附加元素我们可以通过,2d/3d的一些小技巧把他们放入到影片中,而如果是立体的项目,我们就要小心很多。因为我们看东西都是要用2只眼睛看,因为两眼看东西的时候角度不同就会产生convergence点,而这个点也就是决定了物体和人眼见的距离。所以在立体影片中,每个物体都要保证一个有一个正确的3d位置。如果一个物体在远处的背景,必须保证在左右镜头里,他都是在背景,否则看起来立体效果就会乱掉。 stereo off. 很多近距离的特写镜头,或者近镜头的物体都需要重建镜头副镜头,并调整I/O 和convergece来调整立体效果。

10050921507faa84a79e81d22e.jpg.thumb

在3DE 4发行之前,很多时候我们会用合成软件先垂直性的对其左右镜头,然后再追踪。但是3DE4出现改变了这种状况,他会计算出两个镜头之间的数值差距,然后提供的镜头可以完全符合原始的plates.这是一个巨大的进步,这样我们可以把垂直对其的工作放到和合成中的最后一步去做了。(这段讲的大概内容就是 左右摄影机有时候会出现高度不一致的情况,所以拍出的东西也一边高一边低。这样在合成3d的时候,就会出现差位。因为正常人的左右眼高度是基本一样的。这就是为啥你歪着头看3d电影,就没有3d效果。或者3d效果失真的原因了。)

过去我们很难处理全分辨率的片段。现在我们可以轻松读取全分辨率的片段了。HD或者2K的(1920×1080)(2048×1080),这样就可以尽量保存图片信息,来提高我们追踪的精确度,而且保持相同的分辨率在整个pipeline过程中也很重要 (这段没啥用)

我们通过这项目学习了很多,也更期待在大荧幕上看立体的 阿凡达!”

Albrecht Steinmetz
Weta Digital Ltd