口腔摄影系列
第一话:为什么照片和实际看到的东西不一样
在口腔临床实践中,近年来摄影技术的应用逐步受到重视。通过对患者口腔内图像信息的采集,既达到记录临床信息的目的,并且通过治疗前后图片的对比,又可以清楚直观地反映治疗效果。照片不仅使口腔医师和患者的沟通更加直观,而且更加方便了口腔医师、口腔技师之间的信息交流。同时,通过对患者治疗过程中各个阶段口内图像信息的完整采集,建立完备的临床治疗档案,可避免不必要的医患纠纷。而对于口腔医师本人,每个病例的完整影像记录,有助于其分析和总结经验教训,进行技术交流,提高临床技能。因此口腔摄影已成为口腔临床中一项重要的技能,作用日趋明显,应用日益广泛。
然而口腔环境存在特殊性,充满各种对摄影的不利因素,增加了口腔摄影的困难,这些不利因素包括:口腔摄影的被摄主体位于口腔内,位置深在并且有软组织的遮挡,难以建立直接并且均匀的照明;口腔内各解剖结构的特殊性使其对光的反射率存在很大差异。例如牙齿表面的反光率远远高于口腔黏膜表面的反光率,造成被摄物体光比很大,难以正确精准地曝光,无法在一张照片上同时表现出高光部分和阴影部分的细节;口腔摄影的主要目的是作为记录信息的载体,需要使各种摄影条件(构图、放大比、曝光量等)保持一致,并且需要包含被摄主体多方面的信息(形态、颜色、表面质地、半透明效果等)。但是口腔的具体特点又决定了摄影的技术参数很难做到标准化,用一张照片记录所有的信息几乎是不可能的;此外口腔内被摄主体很小,需要使用微距摄影技术,各种相应的技术难题随之而来,例如难以控制的放大比,较浅的景深,不易克服的相场畸变,很难达到的均匀照明等。
口腔环境的特殊性给摄影带来极大的挑战,摄影者需要灵活并且精准地运用光和影的效果,对主体的某一特点进行记录,然后用一系列的照片来系统地记录被摄主体的各种特征;还需要充分利用相机的设计优势,扬长避短,避免因相机和镜头相对于人眼而言存在的设计缺陷对图像质量造成明显的影响,从而使捕捉到的图像尽量接近人眼的视觉。
在实践中,初学者最常被一个问题困扰:“为什么拍到的照片和看到的景物不一样?”。对这个问题,究其原因主要是由于人眼和相机的差异造成。即便是设计精良的相机,在很多方面也很难与人眼的光学能力媲美。相机的构造虽然和人眼类似,但在结构和功能上具有极大不同(表1)。这些不同直接导致了人眼和相机成像结果的巨大差别,也就是我们经常留意到的“拍到的和看到的不一样”的情况。了解这些差别也是正确完成口腔摄影的前提。
1. 感光的物质基础
在可见光谱(波长400-700nm)范围内,正常人眼大约能分辨出超过200种不同的色调。人眼视网膜上有两类视细胞,视杆细胞对光线的强度有很高的敏感性,但是缺乏对颜色的分辨能力;视锥细胞具有分辨颜色的能力,但对光线强度的敏感性远远低于视杆细胞。视锥细胞和视杆细胞的协同作用使人眼能同时分辨物体的亮度和颜色[1]。一般认为视锥细胞有三种,每一种对不同波长光线的敏感性不同,恰好分别对应了红、绿、蓝三原色的波长,并且这三类视锥细胞对光谱的敏感范围有一定的重叠[2-4](图1A)。这是人眼能分辨各种颜色的物质基础。
图1 A:正常人眼三种视锥细胞对不同波长光波的敏感性,三种不同视锥细胞对光波的敏感性之间有相当的重叠。并且这三类视锥细胞对光谱的感知范围有一定重叠。
与人眼不同,相机感光元件对光谱的敏感范围大于人眼,除可见光外,还能捕捉到紫外光谱(胶片)和红外光谱(Charge-Coupled Device,CCD)。被记录的紫外和红外光,经过后期处理,会以可见光的形式出现在照片中,对成相造成影响[5]。相机对光线强度和波长的信息采集由三种不同的成相单元同时完成。这三种成相单元分别对红、绿、蓝三原色的光敏感,并且三者的敏感范围没有类似人眼的相互重叠(图1B)。相机捕捉到的光线经过后期的处理(胶片的冲印/数码的计算)后合成出最终影像。
图1B:数码相机感光元件,三种成相单元在芯片上的排列。(图片B来自 fujifilm.com)
正因为人眼和相机结构上的差异直接导致二者记录到的原始信息存在较大差别,基于不同的原始信息基础上形成的视觉和照片也就会不一样。
2. 对焦范围
人眼通过对晶状体的曲度进行调整,能使无穷远处(远点)至250mm 处(近点)的光线汇聚在视网膜上形成实相,而距人眼距离小于250mm的物体将不能在视网膜上准确成像。这一非意识性的调整过程称为人眼的“调节(accommodation)” [6,7]。相机的对焦则是依靠一组光学镜片之间相对位置关系的改变来完成的,聚焦后将光线准确地汇聚到感光元件上。相机的成像范围受到不同镜头的设计的影响,一般镜头的远点位于无穷远处,不同的镜头的最近对焦距离(近点)不同,常见的微距镜头约在10cm左右。单从对焦范围的表观数据来看,似乎相机的对焦能力优于人眼。但是由于对焦范围的扩大,对于各种相差的控制难度大大增加,结果导致镜头对相差和色差的控制能力远远逊于人眼[8](将在“镜头的选择”部分详细阐述)。
3. 立体视觉(Stereopsis)
正常人双眼的瞳间距离一般为65mm,对同一景物,双眼捕捉到的影相会有细微的差别,这两幅不同的影相经过大脑的整合,形成对景物的立体感觉[9]。这种立体感觉不依赖于景物的距离和排列方式(例如光影效果)的辅助。目前市场上流行的3D技术(例如3D电影和3D照相等)其工作原理多是基于模拟人双眼的这种整合成像方式。与人眼不同,相机每次只捕捉一个单一影相,只能在平面上表现物体的位置关系而缺乏空间立体信息,捕捉到的影相常会造成视觉的错觉,这是相机的内在缺陷。在摄影时,需要通过精确控制光影效果(布光)和巧妙地安排景物的相对位置(构图),来一定程度上补偿空间立体信息的损失;而微距摄影中常用到的环形闪光灯,因其会消除必要的阴影,使整个画面丧失立体感,因此应该根据不同的摄影目的进行选择性使用(图2)。
图2 需要充分利用光和影的配合来弥补摄影时被摄物体的空间信息损失。A:运用45°侧光的阴影使景物具有立体感。B:环形闪光灯消除了必要的阴影,使景物的立体感丧失。
4. 成相模式差异和相差的补偿
在正常照度下,人眼捕捉彩色影像的方式很特别。由于对颜色高度敏感的视锥细胞集中分布在黄斑区域,人眼仅在该区域具有对形状和颜色的高度敏感性(虽然视杆细胞在视网膜的分布很广泛,但是由于视杆细胞主要在低照度下形成黑白视觉,故不做详细讨论)。在进化中,人眼逐渐形成了一种被称作“扫视(Saccade)”的特殊成像模式[10]。对一个视野,人眼每次只利用投照在黄斑区的清晰的实相(一个马赛克图像),再通过眼球的非规律性运动,扫描整个视野,再将扫描到的多个马赛克图像经过大脑的整合功能拼接成一个完整的视觉图像(类似Image Pro软件的Stage Pro功能,和Photoshop软件的Photomerge功能)(图3)。而目前常用的相机只是简单的一次性成像,成像范围取决于相机的画幅设置,成像的质量取决于镜头的光学特征及对摄影参数的控制等因素。
图3 人眼扫视成像:正常照度下,人眼随机捕捉黄斑区域的小范围清晰的图像,再通过眼球的不规则运动扫描整个视野,最后将马赛克图像整合拼接成完整的视觉图像。
比较这两种成像方式,人眼的成像方式具有很多优势,包括:
4.1曝光量的控制
相机的成像模式和感光元件的构造以及对原始信息的计算方式决定了相机对图像的采集具有时间敏感性,曝光度可以随曝光时间呈现累加效应,故而摄影时曝光量是否精确决定了摄影的质量。由于人眼采取扫视的成像模式,并且有精确的反馈系统,所以能对每一个马赛克图像实现精准的曝光,使整个图像的曝光量协调、稳定,而不会出现曝光量随时间的累加效应。
4.2视野的大小以及相场畸变的控制
虽然正常人双眼的视角只有120°,但是由于采取特殊的扫视成像模式,使得人眼对周围相当大范围内的物体的感知具有准确性,不会受到相场畸变的明显影响;而对于相机而言,虽然有些广角镜头的视角可以明显大于120°,却不可避免地受到相场畸变的严重影响,摄影画面出现夸张的变形。这一点也是相机相对人眼的另一个几乎难以弥补的巨大缺陷。
4.3相差和色差的控制
高斯的理想光学模型认为平行于光轴的光线通过凸透镜后能汇聚于焦点。但实际情况与高斯的理想模型有一定的差异:只有透镜的近轴光线符合该定律,而通过透镜边缘的光线的汇聚位置会偏离透镜的焦点。所谓相差即是指由于这种实际情况和理想模型的差异导致的透镜所成的实相与理论计算结果之间的各种差异。常见的有球形相差(Spherical Aberration)、彗形相差(Coma)以及各种畸变(Distortion)等[11]。色差(Chromatic Aberration)是白光中不同波长的光线在同一折射界面上表现出不同的折射角度而导致不同颜色的光波在实相上不能完美地重叠,从而出现不同的色带的现象,在摄影时常表现为照片的紫色或者蓝色的边缘[12]。对相差和色差的控制是镜头设计中非常重要的问题且难以达到完美。
对于人眼而言,黄斑区恰好是视轴和视网膜垂直相交的区域,是近轴光线的成相区域。由于大脑的整合过程只利用局限于黄斑区域的马赛克图像,故只有近轴光线的实相被用于后期整体视觉的形成。近轴光线高度符合高斯的理想光学模型,相差非常小;并且由于视网膜存在天然的曲度,成像时弯曲相场的佩兹伐曲率(Petzval Curvature)也得到了良好的补偿,减少了相差的影响[13-15]。对于色差而言,最难校正的是紫色和蓝色光的色差,而角膜和晶体的组织结构能吸收光谱的蓝色、紫色以及紫外端的辐射,再加上黄斑区本身具有的滤镜的功能[16,17],人眼能对色差能做到非常好的控制[18,19]。
综上考虑,由于折射造成的对镜头成像质量的影响,在人眼成像系统的精巧构架下,辅以人眼特有的成像模式,得到了很好的修正,对视觉几乎不造成明显影响。而摄影时由于相机在这些方面的内在缺陷,很容易出现成像质量逊于人眼视觉的情况。
5. 对光线的宽容度(又称“动态范围”DynamicRange)的差异
在拍摄牙齿时经常遇到这样一种情况:切端的半透明效果虽然用肉眼观察时非常明显,但是在拍摄照片时,即使曝光量正确,往往记录不到这种特殊视觉效果(图4A)。这个问题的成因,和相机感光元件对光线的宽容远远小于人眼对光线的宽容度有关。
图4 不同曝光量对暗细节的影响。中切牙的中1/3与切1/3半透明区域之间的明暗强度比超过相机感光元件对光线的宽容度(Dynamic Range)。A:在对中切牙中1/3达到正常曝光时,切1/3的半透明区域在照片上难以分辨(暗细节丢失)
所谓感光元件的宽容度,是指感光元件对同时存在的明、暗光线的感知能力;是感光元件记录被摄范围内最亮的光线到最暗的光线的强度范围的能力。人眼具有10000:1左右的宽容度,也就是说,人眼所能察觉到的最亮光线的亮度是其能察觉到的最暗光线亮度的10000倍,人眼同时可以区分两个极端之间的任意强度的光线。现有感光元件对光线的宽容度远远低于人眼(即使特殊设计的具有很大宽容度的Tri-X黑白胶片,其宽容度也仅500:1左右;Fuji公司的Super CCDEXR采用高精度曝光控制对同一场景同时进行两次拍摄,一次采用高感光度而另一次以低感光度拍摄,然后将两次拍摄的影像数据合并最终获得超高宽容度的完美拍摄效果。虽然其宽容度较一般CCD已经有显著提升,约400:1,但是仍然远远低于人眼的宽容度)[20,21]。当一个构图范围内的最强光线和最弱光线的强度比超过感光元件的宽容度时,相机便难以记录超出宽容度范围的光线,在照片上表现为不能区分的白色(亮细节丢失)或者黑色(暗细节丢失)。
在拍摄前牙的切端半透明效果时,牙齿表面和半透明效果区的亮度比远远超过了相机感光元件对光线的宽容度,因而难以记录到切端釉质的特殊效果。要解决这个问题,首先要明确相机不可能像人眼一样同时精准地捕捉到亮细节和暗细节,只能利用相机对光线有限的宽容度,用不同的曝光量,在不同的照片中集中表现亮细节或者暗细节。例如:对于切端的半透明效果,属于暗细节,可以通过减低照度从而降低曝光量的方法来加以表现(图4B)。
B:当降低照度使整个画面低曝光时,可以很清晰地记录切1/3半透明区域(箭头所指区域)
6. 白平衡
人对物体颜色的感知能随着入射光线的变化而在一定范围内进行相应的精确调整。例如同样一张白纸,阳光和日光灯照射下反射出的光线虽然不同,但是人眼捕捉到的信息通过大脑的整合和调整,在不同的光线条件下都能认出这是一张白纸,即人眼对白色的认知并没有随光线的变化而显著变化,这一精细功能的实现有赖于大脑的调节作用。但是相机不具有这样的调节功能,只能如实记录入射光线中三原色光的强度信息;即相机记录到的颜色信息在相当大程度上受到入射光线色温的影响。为了消除不同光源条件对摄影造成的偏色问题,数码摄影技术采用了“白平衡”的后期处理技术,简言之就是根据光源的光谱分布重新设定颜色计算的零点,校正照片的偏色问题。但是相对于人眼—大脑系统的校正精度,白平衡的计算方式就显得很粗略,很难模拟大脑的调节作用,不可避免地在看到的物体和拍摄到的物体影相之间形成色差(图5)。精细的色彩还原,有赖于摄影过程中颜色标准的确立以及摄影后图像处理软件的精细调整。
图5: 同一照明条件下,不同白平衡设置对图像颜色的影响。A:日光灯;B:荧光灯
7. 视觉的主观性和视错觉
虽然人眼—大脑系统具有很多相机难以比拟的优势,具有目前拍摄后处理技术难以企及的精确反馈调节能力,但其却难免受到情绪和意识的影响,形成一些视觉错觉,影响人对周围事物的客观感知。视错觉常对比色结果造成不良影响,但是对于一些特殊病例(例如少量的间隙不调)也可以利用视错觉来达到良好的美学效果。相机对被摄物体的记录相对客观,不容易受到视错觉的影相,可以作为人眼视觉的补充。白平衡和视错觉对颜色记录的影响将在“色彩记录和还原”部分详细论述。
以上这些因素造成了“拍到的和看到的不一样”的问题,口腔环境的特殊性也增加了口腔摄影的难度。为达到理想的摄影效果,需要了解不同相机的设计特点,充分利用其设计优势,灵活运用光和影的组合,使捕捉到的图像尽量接近人的视觉,并针对不同的目的,优化各种参数,使照片能够表达不同层次的涵义。在后续部份中,将对如何选择镜头、设定摄影参数、还原原始信息等方面进行阐述。希望通过本系列的交流,能够使广大口腔医师了解更多关于摄影的信息,掌握实用技巧,真实而生动的记录患者特征,为临床实践服务。
参考文献
1. Curcio CA, Sloan KR, Kalina RE,et al. Human photoreceptor topography. The Journal of comparative neurology1990; 292: 497-523.
2.Merbs SL, Nathans J. Absorption spectra of human cone pigments. Nature 1992; 356: 433-435.
3.Roorda A, Williams DR. The arrangement of the three cone classes in the livinghuman eye. Nature 1999; 397:520-522.
4.Stockman A, Sharpe LT. The spectral sensitivities of the middle- andlong-wavelength-sensitive cones derived from measurements in observers of knowngenotype. Vision research 2000; 40:1711-1737.
5.Steckl AJ, Nelson RD, French BT, et al. Application of charge-coupled devicesto infrared detection and imaging. Proc. IEEE 1975; 63: 67-7474.
6.Toates FM. Accommodation function of the human eye. Physiological reviews 1972;52: 828-863.
7.Brown N. The change in shape and internal form of the lens of the eye onaccommodation. Experimental eye research 1973; 15: 441-459.
8.Navarro R, Santamaria J, Bescos J. Accommodation-dependent model of the humaneye with aspherics. Journal of the Optical Society of America. A, Optics andimage science 1985; 2: 1273-1281.
9.Gheorghiu E, Erkelens CJ. Spatial-scale interaction in human stereoscopicvision in response to sustained and transient stimuli. Vision research 2004; 44: 563-575.
10.Crapse TB, Sommer MA. Frontal eye field neurons assess visual stability acrosssaccades. Journal of Neuroscience 2012; 32:2835-2845.
11.Kant R. An analytical solution of vector diffraction for focusing opticalsystems with seidel aberrations. I. Spherical aberration, curvature of field,and distortion. J. Mod. Opt. 1993; 40:2293-23102310.
12.Jamieson TH. Secondary colour and chromatic variation of seidel aberrations.Optik 1974; 39: 195-204204.
13.Sands PJ. Inhomogeneous lenses, iii. Paraxial optics. J. Opt. Soc. Am. 1971; 61: 879-885885.
14.Thibos LN, Bradley A, Hong X. A statistical model of the aberration structureof normal, well-corrected eyes. Ophthalmic Physiol. Opt. 2002; 22: 427-433.
15.Liang JZ, Williams DR. Aberrations and retinal image quality of the normalhuman eye. J. Opt. Soc. Am. A-Opt. Image Sci. Vis. 1997; 14: 2873-2883.
16.Pease PL, Adams AJ, Nuccio E. Optical density of human macular pigment. Visionresearch 1987; 27: 705-710.
17.Davies NP, Morland AB. Macular pigments: Their characteristics and putativerole. Prog. Retin. Eye Res. 2004; 23:533-559.
18.Gilmartin B, Hogan RE. The magnitude of longitudinal chromatic aberration ofthe human eye between 458 and 633 nm. Vision research 1985; 25: 1747-1753.
19.Ogboso YU, Bedell HE. Magnitude of lateral chromatic aberration across theretina of the human eye. Journal of the Optical Society of America. A, Opticsand image science 1987; 4:1666-1672.
20.Larson GW. Logluv encoding for full-gamut, high-dynamic range images. J. Graph.Tools 1998; 3: 15-3131.
21.Fowler B. High dynamic range image sensor architectures. In: Imai FH, Xiao F,DiCarlo JM, et al. , editors. Digital photography vii. Vol 7876, Proceedings ofspie. Bellingham: Spie-Int Soc Optical Engineering; 2011.
来源:刘洋 咬合工作室