利用 MATLAB 和 Dcraw 处理数码相机 Raw 文件的完整流程

Update 2019.01 – 整合并开源了一个小工具包:https://github.com/QiuJueqin/MatRaw,欢迎 fork 呀。

目录

这篇文章要说的当然不是如何用 PS、LightRoom 来处理 Raw 文件,而是一种更加彻底、数据化的办法 — 利用 MATLAB 直接处理数码相机的 CFA(Color Filter Array) 数据。

接触过摄影的人都知道,对于数码相机来说 Raw Data 是原始的、未被处理的数据,相比 JPEG,Raw 文件记录了更多的场景信息,保留了更宽广的色域以及动态范围,也留下了更为自由的后期处理空间。Raw Data 只是一种图像数据的封装形式而并不是一种文件格式,不同厂商的相机一般都拥有自己的 Raw Data 格式,比如常见的 *.CR2、*.NEF、*.ARW、*.ORF(Olympus)、*.RAF(Fuji)、*.DNG(Adobe、Leica)等。

对于大部分人来说,处理 Raw Data 的软件不外乎就那么几种,Camera Raw、LightRoom、Aperture、DxO 以及各厂商自带的处理软件。这些软件虽然通过图形界面提供了简洁易懂的处理流程,但是遗憾的是它们能导出的都并非真正意义上的 「Raw Data」,即传感器直接记录的、与照度成线性关系的第一手数据。对于摄影、媒体、艺术领域,这些软件已经足够强大,但是在图像处理、计算机视觉等研究领域,我们需要的是把照片中的信息转换为能够通过数字来定量表示的形式,或者通过一些公式、算法直接对图像(或图像的某一部分)进行处理,再或者对两张图片之间的差别进行量化表示,这时候 LightRoom 这些软件就显得有些无能为力了。

这篇文章要讲的就是如何通过 MATLAB 对 Raw Data 进行处理并从中提取出我们想要的图像信息,这是一种我所了解的最彻底、最根本的获取相机传感器原始信息的方法,并且这些信息都是以数字的形式记录下来,可以很方便地在此基础上进行图像的存储、传输或者进一步操作。实际上 MATLAB 本身就提供了非常强大的图像处理功能,正所谓「普通青年处理图片用 PS,文艺青年处理图片用 LightRoom,2B 青年处理图片用 MATLAB」。

由于各家相机厂商对 Raw Data 采取了不同的封装方式,MATLAB 并不能一一识别这些文件格式,因此我们需要先利用 Dcraw 将不同扩展名的文件转换为 MATLAB 能够读取的图片格式 — tiff。Dcraw 是一种 Raw Data 解析方案,它能够识别市面上大部分的相机型号,并将相应的 Raw 文件导出为 tiff 或 PGM/PPM/PAM 格式文件。事实上 Dcraw 本身就可以算作一种 Raw Data 的处理程序,它拥有白平衡设置、伽马校正、色彩空间转换、去马赛克、亮度调节等一系列功能,并且提供了 C 源代码,让用户可以在任何操作系统上对其进行编译。关于 Dcraw 更详细的设置可以在其官方文档或这个博客中查看,这里我们仅仅把它作为 Raw Data 到 tiff 的一种媒介,而不对图像做任何的处理 — 把所有的操作都留到 MATLAB 里。

0. Dcraw 的预处理

以下操作以 Windows 平台为例,使用的相机为 Nikon D3X。为了简化流程,我们使用 Dcraw 现成的可执行文件(http://www.centrostudiprogressofotografico.it/en/dcraw/)而不在本地对其编译。一般将这个 Dcraw.exe 文件放在 C:\windows 路径下,这样可以直接从运行(Win + R)中执行。在运行中输入 cmd 进入命令行窗口,这时已经可以直接调用 Dcraw,或者输入 dcraw 查看相关的一些命令。

由于我们不准备用 Dcraw 对 Raw Data 做任何处理,只需要输入

dcraw -4 -T -D -v pathfilename

其中 pathfilename 为图像的绝对路径,比如 E:\photosimg1.NEF 这样。这里的 -T 表示将图像以 tiff 格式导出,-D 表示不对图像做任何的彩色插值和亮度调节(彩色插值的问题后面会提到),-v 表示在 Dcraw 处理结束后在屏幕上显示相关信息(这一步有没有都无所谓),而 -4 等价于 -6 -W -g 1 1,即表示导出的图像为16位(而不是常见的 JPEG 的8位 )、不进行任何白平衡校正不进行任何伽马校正。在一些需要获取拍照时白平衡设置的场合也可以使用 -6 -w -g 1 1 -T -D 这样的参数组合,但这里我们使用 -4 -T -D 就好。各参数的意义在上面提到的官方文档页面中有详细的说明。

完成这一步之后在原 Raw 文件同一个文件夹下就会多出了一幅 tiff 格式的图像,这时候大部分图片浏览软件都可以打开它了(一些看图软件在安装插件后能够直接浏览 Raw 文件,比如我的 IrfanView,但实际上它们打开的只是嵌入在 Raw Data 中的经过一系列转码的缩略图而并非 Raw 本身)。但是为了避免各种图像浏览软件不同的解码方式对预览图像造成的影响,下面都使用 MATLAB 中的 imshow 函数来浏览图像。

同样是这幅 tiff 图片,如果直接使用 IrfanView 查看,得到的是下面的效果,明显比 MATLAB 中的要亮得多。

下面的图片截图如果不特殊说明都是指在 MATLAB 中预览的效果。得到的这幅 tiff 图像除了一些缩略图和文件头之外,基本上记录了与 Raw Data 同样多的图像信息,并且是 MATLAB 可读取的。由于编码上的差异,并且 Dcraw 不像大多数软件那样去除了图像边缘的一些像素,有时这个 tiff 文件的体积甚至会比 Raw Data 文件更大。与 Camera Raw、LightRoom 等软件打开的 Raw 文件最明显的区别就是,这张 tiff 图片是黑白的。这里牵涉到了去马赛克(Demosaic,但我更喜欢叫它彩色插值)的问题,下面我简单地谈谈我的理解,不一定完全正确。详细的介绍还是看 Wiki 吧。

大家都知道一般民用的数码相机只有一块 CMOS 或 CCD(这里不谈 3CCDFoveon X3),而无论是 CMOS 还是 CCD,都只对照射在它们有效面积之上的光通量敏感,并且产生与该光通量成正比的电流作为输出。这个输出实际上是由光源的光谱功率分布(SPD)、物体表面反射比以及相机传感器灵敏度共同作用的关于波长的一个积分结果。由于这是一个对整个可见光波段的关于波长的积分,显然不能够表示任何色彩信息。正因为这一点,目前消费级相机的传感器都是不具备任何颜色感知能力的,照片中所有色彩的信息实际上都是软件处理后的结果。正因为这点,我们一般不可能得到一张真正「未经处理过」的彩色图像。既然传感器只能感受光的「强度」而非「色彩」,我们就需要在传感器之前放置一些透过率满足一定波长条件的滤光片,使得经过这些滤光片后作用在传感器上的光信号只是某一波长范围内的积分形式(比如500 ~ 600nm),而非整个可见光波段(380 ~ 780nm)。实现这个功能最常见的滤光片就是拜耳滤镜,如下图所示。

灰色部分为 CMOS,彩色部分为对应颜色的滤镜,每个滤镜下方对应的像素点只能接收到该滤镜对应波长的光信号,而不是整个可见光谱范围的光信号。根据左上角四个滤镜从左至右、从上至下的顺序一般有「RGGB」、「GBRG」、「GRBG」几种。D3x 为「RGGB」型,具体相机的滤镜排列可以对着红绿蓝单色图片分别拍摄一张然后查看 Raw Data 的数值分布来获得。知道自己相机所用的拜耳滤镜的排列模式(Pattern)是进行彩色插值操作的前提(之所以绿色滤波片的数量是红蓝滤波片数量的两倍,主要是因为人眼对绿光最为敏感,这点不作展开说明)。既然知道了每个颜色滤波片背后 CMOS 对于像素单元上的光强度,以及各个像素之上的滤波片颜色,我们就可以对每个像素的三原色进行恢复,这就是去马赛克(Demosaic)或者说色彩插值的本质。举个例子,假设某个 CMOS 阵列上的滤波片为「RGGB」排列(参考上图),现已知某个像素点 x 对于为 R 滤波片,则其上、下、左、右四个像素点必定对于 G 滤波片,右上、左上、右下、左下四个像素点必定对于 B 滤波片,因此这时候像素点 x 对应的 R 通道数值就是该点 CMOS 上实际的电流大小;而 G 通道数值是对上、下、左、右四个像素 CMOS 电流大小取平均之后的值;同理,B 通道是对右上、左上、右下、左下四个像素取平均之后的值。当然这里说的只是最简单的插值方法 — 领域取平均法,实际上各个厂商都需要考虑各方面因素对色彩插值进行算法上的优化。一般我们看到的 JPEG 图像或者彩色的所谓的 Raw Data,都必定经过这一步色彩插值。

但是我们现在希望把这一步骤留到 MATLAB 中进行,所以在 Dcraw 中选用 -D 参数使得插值先不被执行,这也是为什么上面得到的 tiff 图像仅仅是灰度图像 — 因为它只记录了光强度信息,而不包含任何颜色信息。

这时可以在 MATLAB 中打开这幅灰度图像了。由于各个像素上记录的光强度是一个标量,这幅图像相当于一个 $m\times{}n$ 的矩阵,其中 $m$ 和 $n$ 分别为 CMOS 纵向和横向的像素数。

raw = double(imread('img1.tiff'));

现在终于可以开始在 MATLAB 中对相机传感器的原始数据进行处理了。整个处理过程大概遵循以下步骤:

如果不是要对图像进行处理,而仅仅是希望获得拍照时场景照度的相关数据,只需要进行到第三部 Demosaicking 即可。下面的步骤仅仅是在 MATLAB 中模拟一张相片从被 CMOS 记录到最终呈现在屏幕上的整个过程,相当于人为地重新干了一遍数码相机中图像处理芯片干的事情。若是出于研究的需要,可以对任意一步修改或增加操作。例如需要研究 Gamma 曲线,就不应该在 MATLAB 中执行我提供的 Gamma 校正($\gamma = 2.2$)的函数,而应该根据需要使用合适的 Gamma 曲线。

1. 线性处理(Linearization)

出于节省数据存储空间的目的,一些厂商(例如尼康和索尼)的 Raw Data 并不完全与像素点上的照度呈线性关系,而是会在编码上做一些处理,比如非线性压缩等。不过这里我们不需要担心这个问题,因为之前在 Dcraw 中使用 -4 参数时就已经解决了这个问题。我们只要确保各个像素的数值是分布在 14-bit(虽然 Dcraw 中的 -4 参数将图像设为16位,但其最大值仍然为 $2^{14} – 1 = 16383$)能够储存的范围之间即可,一般为 0 ~ 16383,并将超出这个区间的数值给拉回区间中。再将这些数值归一化至 0~1 区间中。

black = 0;
saturation = 16383;
lin_bayer = (raw-black)/(saturation-black); % 归一化至[0,1]
lin_bayer = max(0,min(lin_bayer,1)); % 确保没有大于1或小于0的数据

要说明的是,我这里使用的 black = 0 以及 saturation = 16383 仅仅是针对 D3x 而言,不同厂家的相机,或者同一厂家不同型号的相机都可能不同。如果第一次使用某台相机不知道这两个参数,可以使用 dcraw -v -T 命令来查看,然后记下这两个数值供日后使用。要注意的是在命令行中每执行一次 dcraw 的命令,所生成的 tiff 文件都会覆盖掉原来的 tiff 文件,因此建议将原始的 Raw 文件先复制到另外一个路径下在执行 dcraw -v -T 命令。

下图中我使用的 Nikon D3x 和 SONY A7 就拥有完全不同的 black 和 saturation 值(索尼的 Raw 被压缩到了坑爹的12位……),因此在 MATLAB 中处理 A7 的图片时我就需要将上面的代码改为 black = 128 以及 saturation = 4095

线性处理到这里就完成了,在 MATLAB 中用 imshow 来查看这一步我们得到的图像(灯箱背景出现的四道条纹是摩尔纹的缘故,无视就好):

2. 白平衡校正(White Balancing)

其实将这一步叫作白平衡校正也并不是很恰当,因为这并不是指利用各种白平衡算法对图片的色调进行修复的那个白平衡校正,而仅仅是对 RGB 三通道乘上不同的增益系数,以补偿因为三种滤波片具有不同光谱灵敏度带来的影响。如果不考虑图像亮度(亮度的处理我们放在后面),将 R 通道乘以2并保持 G 通道不变,或者将 G 通道乘以0.5并保持 R 通道不变,这两种方式对画面颜色变化的影响是等效的。因此我们通常将 G 通道的增益系数固定为1,仅仅考虑 R 和 B 的系数。关于这两个系数具体数值应该取多少,则取决于相机的型号以及拍摄时使用的白平衡参数。实际上,在相机的白平衡设置里选择不同场景,就是在调整这两个增益系数。如果想还原为拍摄时使用的白平衡设置,可以在 Dcraw 中使用 -w -v 参数,这时屏幕上会显示出当时所使用的 R、B 通道的增益系数。

上图中的2.433594和1.347656分别表示拍摄这张图像时所使用的 R 通道和 B 通道的增益。要注意的是,一旦使用了 -w 参数,Dcraw 就会自动完成彩色插值的工作,这样得到的 tiff 图像就不再是原始灰度图像了。因此我们仅仅是使用 -w 来查看增益系数。如果不希望使用拍摄时的白平衡设置,则可以使用 -W 参数,这样不管当时用的是哪种白平衡档位,其 R、B 增益都是一个固定的值。例如对于这台 D3x 来说固定的 R、B 增益分别为2.625910和1.263930。在实际的图像处理应用中,通常需要固定相机的白平衡参数,即在相机的白平衡设置中手动输入色温。对于使用相同相机白平衡设置(Auto 除外)拍出的图片,它们都具有相同的增益系数。可以通过 -g 参数手动设置三通道的增益系数,例如 -g 1 1 1 1。

得到了 R、B 通道的增益后,我们需要将相应的像素值乘上这个系数。前面说过,不同相机具有不同的拜耳滤镜排列方式,因此需要根据实际情况进行增益系数的乘法。这里我使用的是相机拍摄时的白平衡参数,即 r_multiplier = 2.433594b_multiplier = 1.347656

wb_multipliers = [2.433594, 1, 1.347656]; % for particular condition, from dcraw;
mask = wbmask(size(lin_bayer,1),size(lin_bayer,2),wb_multipliers,'rggb');
balanced_bayer = lin_bayer .* mask;

上面代码中的 wbmask 函数就是根据实际拜耳滤镜的排列生成对应的掩板:

function colormask = wbmask(m,n,wbmults,align)
% COLORMASK = wbmask(M,N,WBMULTS,ALIGN)
% Makes a white-balance multiplicative mask for an image of size m-by-n
% with RGB while balance multipliers WBMULTS = [R_scale G_scale B_scale].
% ALIGN is string indicating Bayer arrangement: 'rggb','gbrg','grbg','bggr'
colormask = wbmults(2) * ones(m,n); % Initialize to all green values;
switch align
    case 'rggb'
        colormask(1:2:end,1:2:end) = wbmults(1);
        colormask(2:2:end,2:2:end) = wbmults(3);
    case 'bggr'
        colormask(2:2:end,2:2:end) = wbmults(1);
        colormask(1:2:end,1:2:end) = wbmults(3);
    case 'grbg'
        colormask(1:2:end,2:2:end) = wbmults(1);
        colormask(2:2:end,1:2:end) = wbmults(3);
    case 'gbrg'
        colormask(2:2:end,1:2:end) = wbmults(1);
        colormask(1:2:end,2:2:end) = wbmults(3);
    end
end

完成白平衡调整后的图像如下。由于 R 和 B 通道都乘以了大于1的数,图像的平均亮度较上一张略有提高了。

3. 色彩插值(又称去马赛克,Demosaicking)

上文提到的插值步骤在这一步中实现,经过色彩插值之后原来的灰度图像就成为了一幅三通道的彩色图像。空间插值有非常多的方法,这里为了方便我们使用 MATLAB 内置的 Demosaic 函数,它能够直接把单通道的灰度图像转换为三通道的彩色图像。由于 Demosaic 函数的输入必须为 uint8 或 uint16 类型,我们需要把原来的 double 型先转换为 uint16 型。注意这里的 'rggb' 应该根据相机的具体情况而调整。

temp = uint16(balanced_bayer/max(balanced_bayer(:)) * (2^16-1));
lin_rgb = double(demosaic(temp,'rggb'))/(2^16-1);

完成这一步之后我们就得到了最原始的彩色信息。一些应用中所需要的就是这幅图像的数据,可以使用 imwrite 函数将其保存在硬盘中。后续的色彩空间转换、Gamma 校正等步骤视情况决定是否需要执行。色彩插值后得到的图像如下:

4. 色彩空间转换(Color Space Conversion)

关于色彩空间这里不作过多介绍,举一个最简单的例子,同样一幅图像文件分别在两台显示器上显示,其各个像素的 RGB 值肯定是一样的,但是人眼看上去往往都存在细微的颜色偏差,这就是因为 RGB 色彩空间是设备相关的(Devices-Dependent),而任何两台显示器的 RGB 色彩空间一般都不会完全相同。具体的解释参考 Wiki。为了使一幅图片在各种显示设备上有尽量一致的视觉效果,我们就需要一个设备无关(Devices-Independent)的色彩空间作为传递媒介。目前在电子设备中用的最多的设备无关的色彩空间(有时也称绝对色彩空间)就是 sRGB 和 AdobeRGB。如果在 Dcraw 中使用了色彩插值,则自动包含了一个色彩空间变换的过程。Dcraw 先将相机相关的 RGB 空间转换至 XYZ 空间,然后再从 XYZ 转换到 sRGB 作为输出。在 MATLAB 中我们将这两个步骤合二为一。下面我将与相机相关的 RGB 色彩空间称作 Camera。对于大部分相机,我们可以得到从 XYZ 空间到相机相关空间的变换关系,即已知 XYZ-to-Camera。而作为两种绝对色彩空间,sRGB-to-XYZ 也是固定的。根据矩阵运算法则,我们可以得到从相机相关空间到 sRGB 空间的变换关系:

$${A_{sRGB \leftarrow Camera}} = {\left( {{A_{Camera \leftarrow XYZ}} \cdot {A_{XYZ \leftarrow sRGB}}} \right)^{ – 1}}$$

不同相机的 Camera 不同,因此我们必须获得适合自己相机的 ${A_{Camera \leftarrow XYZ}}$。在 Dcraw 官网提供的 c 文件中收集了市面上大多数相机的 ${A_{Camera \leftarrow XYZ}}$,可以在 dcraw.c 中的 adobe_coeff 函数下找到,并且这个数据库是定期更新的。adobe_coeff 函数下的数字是 ${A_{Camera \leftarrow XYZ}}$ 中各元素乘以10000后逐行排列的数值,

或者也可以使用 Adobe DNG Converter 这个软件来查看相机的 ${A_{Camera \leftarrow XYZ}}$。这种方法得到的数值对应了矩阵中逐列排列的各元素。以 D3x 为例,有:

\[{A_{Camera \leftarrow XYZ,{\rm{D3x}}}} = \frac{1}{{10000}}\left[ {\begin{array}{*{20}{c}}{7171}&{ – 1986}&{ – 648}\\ { – 8085}&{15555}&{2718}\\ { – 2170}&{2512}&{7457}\end{array}} \right]\]

sRGB-to-XYZ 可以在国际照明委员会(CIE)公布的标准中查到,有

\[{A_{XYZ \leftarrow sRGB}} = \left[ {\begin{array}{*{20}{c}}{0.4124564}&{0.3575761}&{0.1804375}\\ {0.2126729}&{0.7151522}&{0.0721750}\\ {0.0193339}&{0.1191920}&{0.9503041}\end{array}} \right]\]

得到了这两个矩阵,自然也就能够算出 ${A_{sRGB \leftarrow Camera}}$。在色彩空间转换过程中必须考虑这样一个问题:由于白色(客观意义上的白色)在相机的 RGB 空间和 sRGB 空间中都是用${\left[{\begin{array}{*{20}{c}}1,1,1\end{array}}\right]^T}$ 来表示,而我们上述白平衡调整的目的就是要确保图像中白色的部分在任何空间中都呈现出白色。因此以下关系必须成立:\[{\left[{\begin{array}{*{20}{c}}1\\ 1\\ 1 \end{array}} \right]_{Camera}} = \left[ {\begin{array}{*{20}{c}}{ }\\ {{A_{Camera \leftarrow sRGB}}}\\ { }\end{array}} \right]{\left[ {\begin{array}{*{20}{c}}1\\ 1\\ 1\end{array}} \right]_{sRGB}}\]

根据线性代数的知识,要满足上式,矩阵 ${A_{Camera \leftarrow sRGB}}$ 的每一行元素之和必须为1,因此在 MATLAB 中我们必须再加上一个步骤,将 ${A_{Camera \leftarrow sRGB}}$ 各行归一化为1。色彩空间变换的代码如下。注意矩阵 XYZ2Cam 请根据自己使用的相机型号进行修改。

sRGB2XYZ = [0.4124564 0.3575761 0.1804375;0.2126729 0.7151522 0.0721750;0.0193339 0.1191920 0.9503041];
% sRGB2XYZ is an unchanged standard
XYZ2Cam = [7171 -1986 -648;-8085 15555 2718;-2170 2512 7457]/10000;
% Here XYZ2Cam is only for Nikon D3X, can be found in adobe_coeff in dcraw.c
sRGB2Cam = XYZ2Cam * sRGB2XYZ;
sRGB2Cam = sRGB2Cam./ repmat(sum(sRGB2Cam,2),1,3); % normalize each rows of sRGB2Cam to 1
Cam2sRGB =  (sRGB2Cam)^-1;
lin_srgb = apply_cmatrix(lin_rgb, Cam2sRGB);
lin_srgb = max(0,min(lin_srgb,1)); % Always keep image clipped b/w 0-1

其中 apply_cmatrix 函数就是把我们得到的 ${A_{sRGB \leftarrow Camera}}$ 应用到原图像的各个通道上:

function corrected = apply_cmatrix(im,cmatrix)
% Applies CMATRIX to RGB input IM. Finds the appropriate weighting of the
% old color planes to form the new color planes, equivalent to but much
% more efficient than applying a matrix transformation to each pixel.
if size(im,3) ~=3
    error('Apply cmatrix to RGB image only.');
end
r = cmatrix(1,1) * im(:,:,1)+cmatrix(1,2) * im(:,:,2)+cmatrix(1,3) * im(:,:,3);
g = cmatrix(2,1) * im(:,:,1)+cmatrix(2,2) * im(:,:,2)+cmatrix(2,3) * im(:,:,3);
b = cmatrix(3,1) * im(:,:,1)+cmatrix(3,2) * im(:,:,2)+cmatrix(3,3) * im(:,:,3);
corrected = cat(3,r,g,b);

经过色彩空间变换后的图像如下,可以看出相比变换之前的图像,各个彩色色块饱和度明显增加,而白色色块颜色保持不变。

5. 亮度校正与伽马校正(Brightness and Gamma Correction)

对于大部分处于研究目的的图像处理流程,这一步不建议执行。在这一步之前,我们得到的图像仍然是与拍摄场景呈线性的,而线性数据往往才是对分析图像有帮助的。但是为了得到更好的显示效果,亮度与 Gamma 校正通常是必不可少的。如果对最后输出的图像存有异议,强烈建议首先返回到这一步中来寻找问题。根据经验,一张图像的平均亮度是像素最大值的四分之一时我们认为它是亮度合适的(注意这条法则仅仅是一个经验公式,并不适用于所有场景,例如一张夜景图像中平均亮度往往会很小)。因此我们调整全局亮度使其符合这一假设:

grayim = rgb2gray(lin_srgb); % Consider only gray channel
grayscale = 0.25/mean(grayim(:));
bright_srgb = min(1,lin_srgb * grayscale); % Always keep image value less than 1

接下来是 Gamma 校正。Gamma 曲线是图像、信号处理领域使用最为广泛的非线性处理,我们最容易见到的就是 Photoshop 中的「曲线」功能,如果将曲线拉成 $y = x^\gamma$ 的形状,就相当于对图像做了一次 Gamma 校正。Gamma 校正是一个很大的话题,这里不具体介绍,可以参考 Wiki。在 sRGB 的官方文档中使用的是 $\gamma = \frac{1}{{2.4}}$,并在函数值较小的部分应用了小范围的线性函数。但是现在大多数平台(Windows,Mac)都使用了 $\gamma = \frac{1}{{2.2}}$ 的曲线,因此这里我们也使用 2.2 作为参数,并且不考虑局部的线性化。如果需要精确的 sRGB 标准的校正函数,可以查看其官方文档。

nl_srgb = bright_srgb.^(1/2.2);

经过亮度校正和 Gamma 校正后的图像如下。由于使用的 Gamma 曲线是一条凸函数,相当于把图像暗部的细节展宽,因此得到的图像要比校正前更亮。

到此为止一套通用的 Raw Data 处理流程就完成了,接下来可以根据需要再进行一系列的处理过程,比如使用一条 S 型曲线增加图像对比度、进行白平衡处理等等,或者直接保存为 .tiff 文件再导入到其他图片处理软件中进行处理。

下面换一张比较生活化的图片,再对整个流程做一个展示。

MATLAB 直接读取由 Dcraw 导出的 .tiff 文件
线性处理后的图片
白平衡调整后的图片,这里使用 R、B 的增益系数分别为2.203125和1.378906
色彩插值后得到的彩色图片
转换至 sRGB 空间后的图片
经过亮度校正后的图片
经 Gamma 校正后的图片

References

About the author

Jueqin

本作品以 CC BY-NC-ND 许可协议进行发布。

如果您认为文章对您有用的话,不妨请我喝一杯咖啡?

159 comments

  • 想问下楼主有没有处理整个流程的完整代码……我在demo3的基础上按lz说的一块一块拼接,调了好长时间也没调通[大哭]。咖啡什么的都好说

      • 按照lz的注释,demo3实际只提供了minimum processing。所以我在demo3代码的基础上对converted这个数据进行加工,方法就是把lz上面给出来的每一部分(线性处理,白平衡,色彩插值……)的灰色框框里的代码都粘贴到demo3里面(函数我都新建文件保存了)。但是运行起来就各种报错,跑不动……所以想问问lz大大有没有包含所有步骤的完整的matlab程序,能一下跑通那种?谢谢了。

        • 整个 matrawread.m 已经包含所有的步骤了,除了白平衡之外都算 minimum processing 的……
          白平衡和颜色校正在 matrawproc.m 里。
          直接用那个 toolbox 就行,不用管这篇文章里写的,里面很多代码现在看来都写得太丑了。

        • 请问为什么我的图片输出是黑白的呢?我把read_attr的 ‘interpolation’改成 true了

  • balanced_bayer = lin_bayer.*mask;
    错误使用 .*
    整数只能与相同类的整数或标量双精度值组合使用。

    • 老版本的 MATLAB 会强制做类型转换,现在不行了。不过现在不建议用这种方法了,新版本的 MATLAB 已经有 auto-broadcast 了。

    • 蛤?白平衡之前就有粉色?什么型号的相机?
      看一下各通道的饱和值,然后 clip 一下,比如 I = max(min(I, x), 0),其中 x = min([max(r(:)), max(g(:)), max(b(:))])

      • 1、白平衡之后没有粉色块的。
        2、相机型号:Sony ILCE-7SM2
        我把raw文件发你邮箱了。我也在尝试。非常谢谢你。

      • 我换了另一张图片,调整亮度校正的值,就不会有粉红色了。那张图应该就是亮度矫正设置的不合理。

  • 博主你好,非常需要您的帮助,最近刚接触这一方面,要处理的文件是.raw格式,用dcraw打不开。
    1. 我还有其他方法可以得到 .raw 文件的 RGB 的增益系数吗。
    2. 不知道增益系数,所以我把它设为了1:1:1,恢复出来的彩色图片都偏黄。不知道恢复出来的图像应该是什么效果,所以尝试了很多色差校正和白平衡校正的方法。图片偏色是不知道拍摄时的rgb增益系数所导致的吗。
    非常期待也非常需要您的帮助,谢谢。

    • 1. .raw 格式的文件一般是第三方相机模组直接导出的图像格式,dcraw 只能用于主流的那几个相机厂商的机器,不能直接打开 .raw。如果你知道图像长和宽的话,直接用 fopen 和 fread 就可以了;
      2. 你可以在拍摄时放置一个中性色物体,然后在处理图像时把这个物体的 R、G、B 值校正至相等,对于大部分应用来说这样的白平衡精度已经足够了。如果是工业相机的话,几个典型光源下的白平衡校正系数以及颜色校正矩阵在用户手册里一般都会提供,直接调用就行了。

      • 谢谢你,由于给我的任务就是一些 .raw 文件,需要恢复为彩色,也没有应该恢复为的可参考的彩色图像,我不能用您说的方法去拍摄。如果 .raw 获取不到白平衡系数,只能用一些色差校正的算法了吗?我在去马赛克之后,用自动阈值法进行色差校正,得到结果视觉上有的看起来可以接受,有些图片不太理想,不知是否是任务所给图片本身不太好的原因呢。

        • 图片内容是什么?自然场景的话有一些自动白平衡算法可以参考一下,但是如果是一些特殊应用就没办法了。没有任何先验知识的话自动白平衡是一个病态问题,不可能解决的。
          我不太明白你说的色差校正是什么意思,那个自动阈值法有参考文献可以让我看看吗?

        • 图片内容是一些自然场景。我说的色差校正是图像去马赛克之后偏黄,由于无法得知白平衡系数,所以用一些自动白平衡的算法去校正,我叫把它叫做了色差校正。
          这是动态阈值法的参考:http://www.cnblogs.com/Imageshop/archive/2013/04/20/3032062.html
          您说的fopen能读到 .raw 文件的白平衡增益系数吗,.raw 文件的帧头里有没有包含这一系数的项呢?它是没有这一参数,还是说只是dcraw打不开呀。

        • fopen 和 fread 只是为了读取图像数据。我接触过的 .raw 文件一般是不包含白平衡增益系数的,文件头里只记录着一些最简单的拍摄参数。如果你除了图像之外没有其他任何信息,那就只能靠算法解决了。你说的那个动态阈值法是一个比较通用的算法,很多相机里都在用,对于自然场景来说问题不大的。

  • 可以提供一下完整的源代码吗,我的执行完第一步,线性处理时显示的图片和转换为TIFF格式的图片一样

  • 非常感谢您的总结,我从中收获良多。不过我发现了一些小疑问,希望和您探讨。

    「RGB 色彩空间是设备相关的(Devices-Dependent),为了使一幅图片在各种显示设备上有尽量一致的视觉效果,我们就需要一个设备无关(Devices-Independent)的色彩空间作为传递媒介。目前在电子设备中用的最多的设备无关的色彩空间(有时也称绝对色彩空间)就是 sRGB 和 AdobeRGB」
    以上是您关于色彩空间转换的讲解。正如您第一句所说 RGB 是 device dependant,sRGB 和 AdobeRGB 也是 RGB 色彩空间同样也是 device dependant,详述可见 https://en.wikipedia.org/wiki/List_of_color_spaces_and_their_uses。如果我们需要一个设备无关(Devices-Independent)的色彩空间作为传递媒介,应该选择 CIELab。

    如果您转换成了 sRGB, 显示出的图片依然是 device dependant,我的两个显示器 EIZO 和 HP 显示同一张图片依然会有肉眼可见的颜色差别。

    • 不是的,sRGB 和 AdobeRGB 都是 device independant 的。之所以同样的一张图像在不同显示器上会有不同的 appearance,是因为各个显示器用的并不是真正的 sRGB 啊,设备本身肯定存在一些特性差异。操作系统及硬件把一组 sRGB 值映射成了一个电压值,但并不表示这一个电压值在这台显示器上就一定能显示出我们期望的那个颜色。sRGB 其实可以理解为一个协议,显示器接收到了这个协议,但是并不表明它一定会严格地执行。我在文中主要考虑的是输入设备(相机)到标准颜色空间的变换,您的应用涉及到了输出(显示器),所以完整的工作流应该是 device-dependent -> device-independent -> device-dependent,后面一部分我们一般称为显示器的色度特征化。

      我在文中的描述可能不太妥当,不应该用 RGB 来指代相机 RGB,应该明确指明是 Camera RGB。现在在大多数涉及 color science 的场景中,RGB 其实只是一个泛称,只要任何满足红绿蓝三基色混色的输入/输出系统都能叫作 RGB 系统。

  • 楼主您好,非常感谢您的工作,希望您能抽空看看这条评论。我在处理手机的raw data时,没有相应的AXYZ←sRGB矩阵,但是发现其中有两个3X3的colormatrix,分别叫做ColorMtrix1,ColorMtrix2 这就意味着您文章中第4步中提到的AXYZ←sRGB矩阵我有两个?我在网上看了很久,只有这个问题提到了这两个矩阵。https://www.magiclantern.fm/forum/index.php?topic=10119.0 其中照片各个参数和我的数据很相似。
    您清楚这是怎么回事吗?我现在卡在这,不知道将raw转换为srgb应该选用哪个colormatrix作为AXYZ←sRGB矩阵了。

    • 一个对应低色温光源,一个对应高色温光源。
      按我的经验来看,室内场景用1,室外场景用2,或者反过来。室内室外各拍一张图测试一下就好。

      • 您好,我遇到一个使用canon EOS 80D 遇到的问题,在读取black saturation值时,显示darkness 2047;saturation 16383,但是我打开光强值,发现最小有1947这样,比darkness还小,因此线性时候出现了负值,我想知道这是为什么,是软件显示的darkness有问题吗?在线等答案,非常感谢,我可以将照片发给您,您看一下,很疑惑这个问题。