大家好,我是虎猫。
等了这么久,iOS 13.2正式版终于更新了!不得不说,最近iOS的更新速度是越来越快了。
9月20日正式版本;
9月25.1正式版;
9月28日1.1正式版本;
10月1日1.2正式版本;
10月16日,1.3正式版本;
10月29.2正式版;
11月8日。2.2正式版本。
此次,大猫在更新后发现了几个新的热门功能!
视频拍摄界面可调
以前使用视频录制时,大喵如果想调整分辨率、帧率等参数,就必须去系统设置里。
现在更新后,您可以直接在拍摄界面进行调整!
不过大喵却觉得这点小改进没什么用,反而影响了界面整体的美观。
在二级菜单中卸载应用程序
自从苹果去掉3D之后,卸载应用就变得很麻烦了,大概有这么几个步骤:
1.长按要删除的应用程序图标
2. 点击删除应用程序选项
3. 好的!
如此繁琐的功能让很多习惯3D长按删除的朋友非常愤怒!
不过,为了解决这个痛点,苹果在iOS 13.2的App二级菜单中加入了“删除App”选项。
虽然不怎么样,但有总比没有好!相比这些东西,我其实更在意下面这个功能,毕竟它会影响我拍女生的照片!
深度融合
记得在今年11月的发布会上,苹果夸耀过它的摄影有多棒,尤其是Deep 功能。
但尴尬的是,该功能在11发布后并未被用户使用。
之所以11系列的相机成绩还没公布,是因为11并没有配备深度融合功能(Deep),导致相机功能不完整。
经过近两个月的等待,荣耀11系列的相机评分终于公布,总分为117分。
位列手机评分榜单第二名,不过今年的评分实在很奇怪,有两部得分121分,有三部得分117分。
说了这么多,可能很多人还不知道Deep 功能是什么,我这里给大家简单解释一下。
该功能可以让相机在我们按下快门之前拍摄4张短曝光照片,然后再以正常的标准曝光拍摄4张照片。
当按下快门拍摄第九张照片时,会采用长曝光来获取暗部细节,此时A13 处理器开始工作,以像素级的精度对照片进行分析和合并。
在融合图片的过程中,A13 处理器会对图片进行一系列加权评估。
评估标准是,细节纹理少的材料权重低,反之亦然。
高权重元素从单张短曝光照片中提取该元素最丰富细节的细节,从合成长曝光照片中获取色调、颜色和亮度,并使用最高精度的高质量算法将它们融合在一起。
低权重元素面积估计直接通过合并长期图像像素或采用低精度快速算法进行融合来完成。
最终的结果是一张高动态范围的照片,它尽力在一些低光照条件下在我们的照片中呈现更多的细节。
整个过程看似很长,但实际上只需要0.25s到0.5s就能处理完毕,这也得益于强大的A13 处理器。
其实从技术原理上来看,深度融合功能(Deep)与( HDR)以及的“多帧合成”十分相似。
不过与智能HDR( HDR)和的“多帧合成”不同,深度融合功能(Deep)是触发式的,并没有独立的功能开关。
这就需要系统能够根据拍摄环境自动判断是否开启深度融合功能(Deep)。
但Pro和Pro Max上的三支不同的镜头其实有不同的深度融合功能(Deep)!
广角镜头在 10 勒克斯照度下启动。如果光线低于 10 勒克斯,相机将启动夜间模式。
照度,俗称勒克斯,是指被摄物体表面每单位面积所接受到的光量。1勒克斯相当于1流明/平方米,也就是每平方米的被摄物体面积,在1勒克斯的距离处被摄物体所接受到的光量。发光强度为1坎德拉的光源在一米的距离处所接受到的光通量。照度是衡量拍摄环境的重要指标。
长焦镜头只会在非常明亮的环境下启用HDR( HDR),其他场景下才会使用深度融合功能(Deep)。
超广角并不支持该功能,只会使用HDR( HDR)。
真实射击体验
说了这么多,实际成像会怎么样呢?我用11 Pro来测试一下。
(与11 Pro合影:广州大剧院)
在日光充足的条件下,不会触发,拍摄的照片与升级前基本一致。
(使用 11 Pro 拍摄的照片)
不过在弱光环境下,一旦系统自动启用Deep 功能,照片质量就会略有变化。
(使用 11 Pro 拍摄的照片)
从放大的图片中不难看出,一些原本会被算法模糊的细节现在都显示出来了!
(上图放大后的效果)
不过如果你对Deep 功能抱有很高的期望,它可能会带来一点失望!
拍完照片之后,除非我们放大来看,否则基本看不出太大的区别,这或许也是因为苹果并没有刻意为这项功能单独打造的原因。
但不管怎样,11 Pro现在绝对是一款强大的摄影工具。
如果要我给出一个精准的评价的话,我会说它突破了我们传统手机拍摄的瓶颈,软件和硬件的结合达到了一个新的高度。