注册 登录  
 加关注
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

紫气东来

微小说 | 登陆账号:zgrrzg77

 
 
 

日志

 
 
 
 

在双镜头年代,你的手机镜头已经不再是镜头  

2016-09-25 17:07:07|  分类: 默认分类 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |

iPhone 不是第一个使用双镜头的手机,但由于苹果的产量优势,往往会把还未能量产、或成本太高的新技术,透过大量生产的方式来降低售价,这些零件才能得以普及,促使整个产业跟进。考虑到 iPhone 的影响力,相信手机的双镜头年代快将开始。

为什么手机要用双镜头?关键在于手机照相能力已到了尽头。

手机作为一个大众化的消费级产品,一直都处于照相能力的军备竞赛之中。最初手机照相能力之争,重点在于解析度:由 60 万、200 万、500 万、800 万一直斗到千万级以上,然后业界才发现手机 CMOS 的尺寸与解析度已经发展到了技术难以突破的地步。

然后,产业之间开始不断的增加镜片数目、也不断的增大镜头光圈、不断的增大 CMOS 面积、不断的加入光学防手震等元件,直至连 iPhone 也有一个丑得不能再丑的凸出镜头(下图),大众才开始留意到:手机已经难以单纯透过硬体来提升成像能力。

apple-iphone-6s-live-_2160_12

更重要的是:手机厂商值得为了提升相机的成像能力而作进一步的牺牲吗?在经济学上有一个边际效用递减定律 (Law of diminishing marginal utility),指的当消费者会增加一个单位产品所取得的额外效用,会随着数量的增加而下降,直至边际效用达到负值时(即每增加一单位产品,效用反而减 少),消费者将不会喜爱该产品。

手机镜头的边际效用定律

同样地,手机镜头的性能增长,也受到边际效用递减定律所桎梏。在手机镜头发展的初期,手机的拍摄品质实在太烂,所以我们可以每一次增加解析度、每一次增加新的镜片、每一次加大镜头和感光元件,都会带来用户在拍摄体验上的飞跃。

但是,成像能力的到了 iPhone 5s 开始进入死胡同。

当时就有不少评测者,开始把 iPhone 5s 与专业级的单眼相机 (DSLR) 相比;但这绝不是指 iPhone 5s 的真的达到专业级相机的水准,而是指一般用户开始不太在意手机与专业级相机照片的细微差距 ── 尽管对于摄影爱好者来说,差别是巨大的。

当一般使用者已经不再重视那些「细微」的成像提升,但手机公司为了与对手竞争,仍然肆意的把相机元件提升,直至 iPhone 6 那个丑陋的「凸镜头」后,导致怨声四起,业界才开始留意到:手机的空间已经不容我们无限量增加提升成像能力 。

当年被 iPhone 5s 的镜头所打动的使用者,很难再为 iPhone 6s 的镜头而心动。同样地,我们不是说单镜头不能再继续提升,但改良镜头时所付出愈来愈多的成本、在机身里所作出愈来愈多的妥协,只能换来摄影爱好者的赞美,但对于一般消费者来说,却是愈来愈微不足道。

故此,厂商必须在最小的牺牲下,为用户带来最新的价值。所以,双镜头就应运而生了。

手机镜头作为感测器

双镜头的重要性在哪里?因为它拍出来的不光是「成像」,而是「资料」。

因为相机镜头髮展至今,已经由单纯的「镜头」,变成手机的其中一个「感测器」。事实上自手机进入智慧化时代开始,开发者就不断为手机镜头加入「拍照」以外的新功能:很多App会把手机镜头当作二维条码扫描器、文件辨识器,也有手机APP能把镜头用作测距,或是把镜头作为 AR 应用。

尽管照相机进入数位化已经有不短的日子,但一直以来手机厂商重视的是「成像」不是「资料」,所以大家的关注点仍然是「光学」。直至 HDR (High Dynamic Range) 流行后,手机厂商才开始採用多重照片合成,来改善相片质素。

苹果在 2011 年的 iPhone 4s 开始,在Sony的 CMOS 以外再自行研发自家的图像信号处理器 (ISP, Image Signal Processor),在 iPhone 5s 发表会里,苹果展示 iPhone 如何在一次的拍摄里生成大量的照片,再合成最好的照片(下图)。当中的每一次光学成像,在处理器里已经不再是单纯的光学影像,而是资料和演算法。

iPhone-5s-camera

同样地,双镜头的重要性并不是因为它有双镜头。

单纯从硬体来看,双镜头拍出来的成像,就是两张不同质素的照片,单独看起来意义不大。但如何发挥双镜头的优势,关键已经不单单是光学,而是合成演算法 ── 苹果近年虽然在人工智慧上没有发表什么成果,但实际上他们早就对此深度研发;刚好在 iPhone 7 的发布会上,苹果的高层 Phil Schiller 指出,他们在 iPhone 7 的镜头里大量使用机器学习 (Machine Learning)(下图)。

iphone-7-camera

简言之,未来手机镜头将会步入新的时代:影像演算法和人工智慧。

双镜头的「感测器」作用

目前的消费级装置上的双镜头运算,主要以两种方式为主,一是双目「迭加」,二是双目「视差」。

手机的双镜头运算,目前主要以「迭加」来增强摄影功能。HTC One 和 iPhone 7 一样,均以双镜头为手段,让手机在没有变得更厚的情况下,把两个影像资料对比,然后进行像素迭加,借此达至无损/低损的数位变焦功能。

而华为在双镜头的处理则有点不同:它们以一个黑白、一个彩色的镜头组合,利用黑白感测器有更佳光线感应能力的优势,再把彩色镜头的色彩讯息迭加(下图),借此取得更好的低光源拍摄能力。不过,两者都可以把不同焦距的效果迭加,然后让用户能在后期调整景深。

Huawei P9

相反,目前不少非手机装置的双镜头运算,却是以「视差」来测距,借此进行 3D 建模。目前的体感游戏装置、VR 装置、无人机和无人驾驶汽车的自动避障功能,均过双镜头摄影机透过镜头之间的距离,使影像出现「视差」,然后再把两个不同的影像资料对比,用三角算法计算出镜头与对像之间的距离(下图),并即时绘画立体影像,以算出虚拟影像、或计划安全的行驶路线。

然而,由于 VR/AR 技术、以及自动避障技术愈来愈流行,导致不少媒体误以为 iPhone 为首的双镜头阵营,将会把手机带到 VR 世界里。

问题是「双目迭加」和「双目视差」的装置,在目前的科技下仍然是个矛盾:双镜头的两个影像的差距愈少愈好,系统才能更准确的把影像无瑕迭加,故此,两个镜头必须尽量靠拢在一起;但 VR/AR 所用的双目视差,两个影像必须有够差距,两者之间的夹角才能增加,运算精度才能提高,所以两个镜头之间的距离必须愈远愈好。Stereoscope

除了是双镜头距离之间的矛盾之外,目前使用双目视差来进行 3D 建模,所需要的计算能力远远比影像迭加要高。大 疆 Phantom 4 就以专门的 FPGA 来进行双目运算,而 HTC Vive 更需要高阶桌机推动,而坊间大部份的无人驾驶汽车也要使用专门图像处理器来计算。但以目前手机晶片的处理速度和手机的续航力来 说,根本不足以进行 3D 建模。

简言之,iPhone 在短期内,除了拿来玩Pokemon Go之类的游戏,不可能透过双镜头做到任何与 VR/AR 有关的事。

但是这代表苹果「未来」真的不可能透过相机头加入 VR/AR 阵营吗?我们并不知道。但是苹果 CEO 库克之前曾说:VR 和 AR 两者,他们更重视的是 AR。而 AR 正是需要大量使用镜头作感测器的互动方式。

所以,也许 iPhone 在今天的水平仍然不足以在 AR 做些什么事,但苹果在 iPhone 7 上开始,累积双镜头的演算法,等候几年后的硬体爆发时,就可能是时候了。

手机摄影将会进入新时代

虽然如此,也许目前的科技未能协调两者的矛盾,但在双镜头的带领下,未来手机摄影仍然不可避免的进入「智慧」、甚至是「电脑视觉」的时代。

同样地,相机元件厂商未来也要面对巨大的挑战。以往只提供硬体平台的他们,将要进一步提更完善的相机演算法方案,更可能要与手机晶片制造商合作,把运算能力和影像整合,并为未来的手机元件产业带来更大的冲击,就例如高通 (Qualcomm) 就淮备好双镜头模组方案,手机厂准备打开钱包买新组件吧。

  评论这张
 
阅读(1)| 评论(0)
推荐 转载

历史上的今天

在LOFTER的更多文章

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2017