您的位置首页>企业动态>

谷歌Google概述了Pixel 4的双摄像头如何捕捉人像照片中的深度

导读 Google的Pixel 4和4 XL标志着Google首次在智能手机中同时使用Pixel和Nexus系列的双主摄像头。在最新的Google AI博客文章中,Google解释

Google的Pixel 4和4 XL标志着Google首次在智能手机中同时使用Pixel和Nexus系列的双主摄像头。在最新的Google AI博客文章中,Google解释了如何改善双摄像头的深度感应以及如何改善距离感知,这是需要知道哪些内容需要模糊处理的。

除了仅使用第二台相机之外,Google还使用第二台相机的自动对焦系统来改善深度估计,使其更接近单反相机的自然散景效果。

有了Pixel 2和Pixel 3,Google会从单个相机中拆分每个像素,以比较两个稍有不同的图像,并尝试计算深度。图像中的这种细微差异称为视差,它对于近距离拍摄的照片非常有效,但对较远的拍摄对象则更加困难。

有了第二部相机,Google可以捕捉到更激烈的视差。现在,这两个图像来自相距约13mm的两个不同的摄像头,深度变得更加明显,并且可以更准确地估计整个图像的深度。

左图显示了Pixel 2和3的单摄像头设置所使用的半像素差异,而右图则显示了两个摄像头之间的图像差异。它不止于此。当第二台摄像机获取有关场景的水平信息时,来自每台摄像机的半像素信息看到的像素垂直变化虽然不太剧烈,但仍然很有用。

这使相机可以看到四向视差,从而为相机提供了更多有用的信息,从而补充了Pixel 2和Pixel 3的Dual-Pixel方法。这有助于Google在Pixel 4上的相机减少了深度误差(散景线差) )并估算距离较远的物体的距离。

此图像说明了如何同时使用双像素和双摄像头信息来创建图像的整体深度图。如果没有其他相机的信息,Pixel 4也可以进行调整。谷歌给出的一个例子是:“被摄物体距离太近,以至于次级长焦相机无法对焦。” 在这种情况下,相机将还原为仅对图像使用双像素或双相机信息。

最后,通过散焦背景来应用散景,这导致合成的“磁盘”距离物体越远越大。色调映射是在图像模糊后立即进行的,但Google过去总是这样做。模糊会导致图像丢失细节,并会模糊对比度,但是以当前方式(先模糊,然后进行色调映射)完成操作后,像素的对比度会保留下来。

尽管Pixel 4在发布后受到了不冷不热的评论,但由于Google工程师在图像处理和HDR +方面所做的所有工作,它还是配备了出色的相机。因此,下一次您短暂等待HDR +在Pixel 2甚至Pixel 3a上处理新拍摄的肖像时,请记住,工作中的Google魔术值得短暂等待。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。