您的位置: 首页 >科技 >

Google表示为什么其Pixel 4相机会如此出色

2022-05-04 19:36:01 编辑:卫涛青 来源:
导读 谷歌宣布其全新的像素4的相机上周二,它吹嘘的计算摄影,使得这款手机的照片,甚至更好,从低光摄影用夜视仪,以识别改进的画像工具和单独

谷歌宣布其全新的像素4的相机上周二,它吹嘘的计算摄影,使得这款手机的照片,甚至更好,从低光摄影用夜视仪,以识别改进的画像工具和单独的头发和宠物皮毛。您甚至可以为星星拍照。使这一切成为可能的是所谓的 计算摄影,它可以 极大地改善您的相机拍摄,帮助您的手机匹配,并在某些方面甚至超越昂贵的相机。

Google并不孤单。苹果营销主管菲尔·席勒(Phil Schiller)于9月吹嘘说,iPhone 11的新计算摄影功能是“疯狂的科学”。

但是计算摄影到底是什么?

简而言之,它是一种数字处理技术,可以使您的相机硬件发挥更大的作用-例如,通过改善色彩和照明效果,同时又将细节从黑暗中拉出来。考虑到手机中微小的图像传感器和镜头的局限性以及这些相机在我们的生活中扮演的日益重要的角色,这一点非常重要。

听说过诸如Apple的Night Mode和Google的Night Sight 之类的术语吗?从困难的昏暗条件中提取明亮,细腻的照片的那些模式正在起作用。但是它无处不在。它甚至内置于第一阶段的57,000美元中画幅数码相机中。

第一步:HDR和全景

早期的计算摄影优势称为HDR,是高动态范围的缩写。小型传感器不是很灵敏,这使它们在场景中明亮和昏暗的区域都难以应付。但是,通过以不同的亮度级别拍摄两张或更多照片,然后将这些照片合并为一张照片,数码相机可以估计出更高的动态范围。简而言之,您可以在明亮的高光和黑暗的阴影中看到更多细节。

有缺点。有时,HDR拍摄看起来是虚假的。当主题从一帧移至下一帧时,您会获得伪影。但是自苹果公司于2010年在iPhone 4中引入HDR以来,我们手机中快速的电子技术和更好的算法已稳步改进了该方法。HDR现在是大多数电话摄像头的默认模式。

Google通过其HDR Plus方法将HDR提升到了一个新的水平。它没有合并在黑暗,普通和明亮曝光下拍摄的照片,而是捕获了大量黑暗,曝光不足的帧。巧妙地将这些镜头堆叠在一起,可以使其正确曝光,但是这种方法在明亮的区域效果更好,因此蓝天看起来是蓝色的,而不是被洗掉的。它有助于减少称为噪点的色斑,噪点会损害图像。

苹果在2018年的iPhone XS中采用了相同的想法Smart HDR。

全景式拼接也是计算摄影的一种形式。通过并排拍摄,您的手机可以构建一个身临其境的超宽图像。当您考虑匹配曝光,色彩和风景的所有微妙之处时,这可能是一个非常复杂的过程。如今,智能手机使您只需将手机从场景的一侧扫到另一侧即可构建全景图。

3D观看

另一种主要的计算摄影技术是3D视觉。苹果公司使用双摄像头来观看立体声世界,就像您可以看到的一样,因为您的眼睛相距几英寸。Google在Pixel 3上只有一个主摄像头,它使用图像传感器技巧和AI算法来计算场景元素的距离。

最大的好处是肖像模式,该模式可以使主体清晰对焦,但将背景模糊成乳脂状的平滑度-摄影行话中的“漂亮的散景”。

这就是带有大而昂贵镜头的高端单反相机所着称的。单反相机与物理学一样,电话与数学一样。首先,他们将其3D数据转换为所谓的深度图,这是场景的一种版本,它知道照片中的每个像素与相机相距多远。靠近主体的像素保持清晰,但后面的像素与其邻居模糊。

Google的Pixel 4通过两次独立的测量来收集立体数据-主相机镜头一侧到另一侧的距离,再加上主相机到远摄相机的距离。前者可以帮助拍摄近距离的物体,其次可以帮助拍摄更远的物体,两者的结合有助于改善棘手的照片元素,例如飘逸的头发。

人像模式技术可以用于其他目的。这也是Apple启用其工作室灯光效果的方式,该效果可以对照片进行修改,使人看起来好像站在黑屏或白屏前。

深度信息还可以帮助将场景分解为多个部分,以便您的手机可以做一些事情,例如更好地匹配阴影和明亮区域中的不规则颜色。Google并未这样做,至少目前还没有,但是它提出了这个想法很有趣。

夜间视力

HDR Plus方法的一个令人愉快的副产品是Night Sight,它于2018 年在Google Pixel 3上推出。它使用了相同的技术-拍摄稳定的主图像,然后在其他几个帧上分层以建立一个明亮的曝光。

苹果公司在2019年推出了iPhone 11和11 Pro手机上的夜间模式。

这些模式解决了电话摄影的一个主要缺点:在酒吧,饭店,聚会上甚至在光线不足的普通室内情况下拍摄的照片模糊或黑暗。在真实摄影中,您不能指望明亮的阳光。

夜间模式也为创意表达开辟了新途径。它们非常适合带有霓虹灯的城市街景,尤其是当您下雨使道路反射所有颜色时。

Pixel 4通过天文摄影模式将这一点推向新的高度,该模式可以混合多达16张照片(每张照片长15秒)来捕捉星星和银河系。

超分辨率

Google落后于Apple高端手机的领域之一是放大了遥远的对象。苹果有一个额外的相机,焦距更长。但是Google使用了一些巧妙的计算摄影技巧来缩小差距。

第一个称为超分辨率。它依赖对称为去马赛克的核心数码相机过程的根本改进。相机拍摄照片时,每个像素仅捕获红色,绿色或蓝色数据。去马赛克会填充丢失的颜色数据,因此每个像素都具有所有三个颜色分量的值。

Google的Pixel 3 和Pixel 4依靠这样一个事实:拍照时手会有些晃动。这样一来,相机就可以在不进行去马赛克的情况下为场景的每个元素找出真实的红色,绿色和蓝色数据。更好的源数据意味着Google可以比通常的方法更好地数字放大照片。Google将其称为Super Res Zoom。(通常,光学变焦(例如使用变焦镜头或第二个相机)比数字变焦产生更好的效果。)

Pixel 4的超级分辨率变焦得益于专用的长焦相机。谷歌表示,即使其焦距仅为主摄像头的1.85倍,Super Res Zoom的清晰度也高达3倍光学镜头。

除了超分辨率技术外,Google还增加了一项名为RAISR的技术,以进一步提高图像质量。在这里,Google计算机提前检查了无数张照片,以训练AI模型确定哪些细节可能与较粗糙的功能相匹配。换句话说,它使用的是其他照片中出现的图案,因此软件可以放大得比相机实际放大得多。

iPhone的深度融合

苹果公司的Deep Fusion是今年iPhone 11的新功能,它是相同的多照片方法在中低照度下的更复杂的变化。它需要四对图像-四张长时间曝光和四张短时间-然后拍摄一张较长时间的照片。它找到最佳组合,分析镜头以找出应优化的主题,然后将不同的帧结合在一起。

席勒(Shiller)夸耀iPhone 11的“计算摄影狂科学”是Deep Fusion功能的得力助手。但是直到iOS 13.2才进行测试,而iOS 13.2现已处于Beta测试阶段。

计算摄影在哪方面不足?

计算摄影是有用的,但是硬件和物理定律的限制在摄影中仍然很重要。将镜头拼接成全景图并进行数字变焦都是不错的选择,但是带相机的智能手机为计算摄影提供了更好的基础。

这就是苹果今年在iPhone 11和11 Pro中添加了新的超广角相机的原因之一,并且有传言称Pixel 4将获得新的远摄镜头。这就是为什么华为P30 Pro和Oppo Reno 10X Zoom具有5倍“潜望镜”长焦镜头的原因。

您只能用软件做很多事情。

奠定基础

最早的数码相机开始进行计算机处理。它是如此基础和必要,以至于我们甚至不称其为计算摄影-但这仍然很重要,而且令人高兴的是,它还在不断改进。

首先,使用去马赛克技术来填充缺失的颜色数据,此过程对于像蓝天这样的均匀区域很容易,而对于像头发这样的精细细节来说很难。有白平衡,相机会在其中尝试补偿蓝色调的阴影或橙色调的白炽灯泡。锐化使边缘更清晰,色调曲线使暗色调和亮色调之间达到很好的平衡,饱和度使色彩流行,并且减少杂色消除了在昏暗条件下拍摄的图像的色斑。

在最先进的技术出现之前,计算机做的工作比胶卷要多得多。

但是你还能称它为照片吗?

在过去,您会通过将感光胶片曝光到场景来拍照。在暗室中,任何对照片的摆弄都是费力的。数码照片的可变性要大得多,而计算摄影则将处理水平提高到了一个新的水平。

Google增亮了人体的曝光量,使他们的皮肤更加光滑。HDR Plus和Deep Fusion融合了同一场景的多个镜头。由多张照片组成的拼接全景图无法反映一个时刻。

那么,您真的可以将计算摄影的结果称为照片吗?摄影记者和法医研究人员采用了更为严格的标准,但是大多数人可能会说“是”,这仅仅是因为当您轻按快门按钮时,这大部分是您的大脑会记住的内容。

聪明地记得,使用的计算摄影次数越多,您拍摄的光子瞬间越过瞬间,进入相机镜头的行程就越多。但是计算摄影变得越来越重要,因此期望在未来几年中进行更多处理。


免责声明:本文由用户上传,如有侵权请联系删除!

最新文章

精彩推荐

图文推荐

点击排行

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ   备案号:

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。

邮箱:toplearningteam#gmail.com (请将#换成@)