转自:https://www.zhihu.com/question/31061415/answer/50534271
作为一个索尼大法受害者,之前就关注过这个问题,看到知乎上有人提问了,就过来谈谈自己的看法。
—————————————————————
首先是
RawDigger: detecting posterization in SONY cRAW/ARW2 files这个链接,以下是适当的翻译以及简化:
RawDigger得出的结论是:索尼的有损压缩算法是每16个像素为一个区块进行压缩,在绝大多数情况下肉眼无法看到画质损伤,仅仅在局部高反差、背景接近纯色的情况下容易出现色阶断裂。
下图是
diglloyd 拍的RAW,在ACR只拉了一点曝光,就已经有可见的色阶断裂:
在RawDigger里面,采用了自动修正功能后,色阶断裂变得更明显:
作者:沈万马: 延迟曝光星空星星的轨迹周围明显的色调分离(posterization)。
这也是Sony的RAW最大的问题:色调压缩采用了类似JPEG的区域模式化。
以上链接中有更详尽的描述。
至于为什么,我真不知道。历史上Sony脑残也不是一次两次了,可能这次不脑残一下不舒服吧。
接下来采用RawDigger对色阶断裂现象进行进一步分析(略去相关过程),高亮显示断裂区域之后:
分析可得,所有可以检测到的、肉眼可见的色阶断裂仅仅存在于塔与天空之间,也就是说要同时具备“高反差边缘、纯色背景”这两个要素:
—————————————————————
那么对于我们这些用户来说有什么影响呢?
根据分析的结论可以得知,索尼的相机不适合拍摄相片中会出现高反差边缘、纯色背景的题材,如星空类题材。如果要进行商业出片,做到符合商业输出的要求的话,画质是不如一些提供无损压缩RAW的相机细腻的。
根据diglloyd的说法,索尼的RAW的有损算法是,每16个像素为一个区块,该区块的最亮和最暗像素各自占用11bit来存储,然后两个4bit来存储这两个像素的位置,剩下的每个像素用7bit来存储,平均下来每个像素占用了8bit的存储空间,实际精度接近11bit。
也就是说,官方说法的A7系列为14bit RAW,CMOS上面ADC环节的确是14bit无疑。但是RAW文件的存储则是用了11bit+7bit补偿的算法,严格上讲不是完全的无损,实际只有11bit左右。
—————————————————————
那么索尼为什么要这么做呢?
众所周知,有损RAW出现在A900之后的每一台相机上,NEX/SLT/ILCE等等……我想原因或许和BIONZ处理器性能有关系。
现在索尼的A7s,12MP的相机RAW文件大小12M,A7 24MP的相机RAW文件大小24M,而A900同样是24MP,RAW文件大小有40M。那么文件大小又和什么有关呢?当然是存储速度啦。
所以我的猜想是:当年A900作为第一台达到24MP的全幅SLR,提供了无损RAW,但是拍一张RAW处理器处理时间太长,再加上当时CF卡普遍速度也不够快,因此用户反应很差。而NEC代工的BIONZ处理器性能又不达标,索尼只能通过有损算法来压缩文件大小,从而提高处理储存速度。
—————————————————————
我们在拍摄中应该注意什么?
1. 首先我们看说明书:
本相机拍摄的RAW影像的每1像素具有14比特的分辨率。
但是,在下列拍摄时,被限制为12比特的分辨率。
长时间曝光降噪
B门拍摄
连拍(包括增强自动时的多张连拍等)
所以首先拿到相机,先把长时间曝光降噪给关了。
2. DPReview上的一个人分析过RX1的RAW,得到如下数据:
细节最丰富的一个RAW里面有1530个不同的数值。log(1530)/log(2)=10.58bit,所以实际存储精度为接近11bit。
范围是0-4093(也就是12bit的范围,估计是这张RAW因为开了连拍或者降噪,被强制12bit了)。
不同范围内的细腻度不同:
0-800 范围内有 801 个独一无二的值 (也就是说是连续的)
801-1424范围内有 320 个独一无二的值 (平均每2个阶跳了1个值)
1424-1427 范围内有 1 个独一无二的值 (平均每3个阶跳了2个值)
1428-2023 范围内有 149 个独一无二的值 (平均每4个阶跳了3个值)
2024-2029 范围内有 1 个独一无二的值 (平均每6个阶跳了5个值)
2030-4093范围内有 258 个独一无二的值 (平均每8个阶跳了7个值)
从数据中可以看出,越到高光部分,数据离散度越高。一般在拍摄大光比图像时,往往会采用向右曝光的手法来保证暗部细节,优化信噪比;但是显然用索尼的时候要三思了,拍摄天空接近完全过曝的照片再后期拉的时候,可能会比别的品牌的相机更容易出现色阶断裂的现象。
还没有评论,快来抢沙发!