莫名就吵起来了。我多事做一个介绍。
======
用于摄影的HDR,通常是做两部分内容:
- 高动态范围图像获得
- 色调映射
前者追溯到计算机图形学老司机,Paul Debevec,在1997年提交的论文。用相机在同一场景拍摄数张不同曝光的照片,然后计算合成。通常的储存容器/格式,就是HDR创始的Greg Ward在其Radiance中使用.hdr后缀格式。
.hdr吼不吼?当然吼啊~
但是人民群众不喜欢啊~
人民群众热爱诞生于1992年的联合专家组格式,也就是jpeg;你别说1997了,2018年我们都还在用。
.jpg可以展现的动态范围相对较小,那就不够用啊。所以就需要进行一定的压缩,也就是色调的重映射 Tone mapping。
把大象放在一个有限的冰箱里,肯定是一个有损压缩,如何得到合适的效果,有很多算法和参数值得推敲。
在大约10年前,HDR摄影后制的相关软件里,通常会给出一个或者几个滑块,可以调整——毕竟,用户的决定权也是很重要的。
问题就出在这里,为了适配多的场景和口味,滑块涵盖的范围就会很大;
手重的用户往往直接拉到底 『不拉到底怎么算HDR嘛』甚嚣尘上。
一时之间,退休的张大妈,村里照相馆的王二狗,都做着这种量产的重口味HDR。
做的人多,而且本身口味确实犯冲,就造成了观感上,品味low。
也就是反推了用户群的选择。
但是呢,好的HDR合成作品,有的就非常柔和,你甚至看不出是。
所谓看多了没意思,可能还是那些年村里摄影赛的泛滥回忆吧。
======
王二狗他们一村子烹调鸡蛋的手艺不好,并不影响对鸡蛋本身品质的追求。
合理的HDR带来了远超传感器水平的增益。
2009年,索尼把自己的「CXD4109AGG」装配到机器上,称作「BIONZ」,这一年的TX1、HX1,以及稍迟的α550,受益于强大的处理能力,多出了一些新功能,包括调用视频处理的扫描全景,还有启用多张拍摄的HDR机内合成,计算能力甚至可以处理一些手持造成的位移。之后这一功能几乎成为业界标准配置;然后又延伸到智能手机上。
视频也想沾HDR的光。佳能的魔灯固件开发者a1ex想到一个方法,让传感器在奇偶行用不同参数曝光,之后合成。虽然损失了一半分辨率,但是带来的可用性提升更加激动人心,后来他还发了一篇论文。索尼版本的叫做BME-HDR。
另外一个思路则是利用AB帧混合,这样会带来一半的帧率损失(RED版本称作HDRx,索尼版本叫做DOL-HDR,有的写作DOL-WDR)。
2016年披露了一种新的想法,在子像素层面上完成渐变式的曝光叠加,从而使得在从拜耳阵列获得全像素的时候也完成高动态范围合成。这种方法没有更多的细节披露,在索尼叫做空间复用曝光SME-HDR,有猜测Google的HDR+可能与此有关。顺带一提,DXOMark的手机拍照排行榜的,超过90分的名次里,就只有Google和相关的HTC还在用『丢人』的单摄像头方案。
这种基于硬件底层的HDR进化,潜移默化,也确实对成像有着帮助。
======
为什么是一个计算机图形学的老司机(当时还是新司机)来研究一个摄影的应用呢?
HDR这个概念,最早是在计算机图形渲染里出现的,也可以叫做High Dynamic Range Rendering,缩写HDRR,或者HDRI(最后改成Imageing成像),最早是Greg Ward,在1985年开始做的工作。
我们亲爱的Paul Debevec,在1996年,拿到了加州大学伯克利分校的phd,研究是关于在摄影中应用,主要是利用同一物体的多角度照片生成这个物体的3D模型;研究把HDR带入到摄影中,或者按论文标题,从摄影照片中得到高动态范围成品,应该是学术路上的“一段弯路”。
Paul 协助了多部电影的制作,包括《黑客帝国三部曲》《蜘蛛侠2/3》《金刚》《阿凡达》等,是
一个在IMDb上有自己页面的科学家。
他2016年加盟Google的VR团队,当年就出了换头科技,还上了TED,给大家讲了一些人生经验。