咱平常拍照,都知道相机像素越高,拍出来的照片就越清晰。那你有没有想过,咱这双眼睛,要是比作相机的话,得有多少像素呢?这问题可有意思了,今天咱就唠唠。
有个叫罗杰・克拉克的摄影爱好者,也是位科学家,他就琢磨啊:“要是人眼是一部摄像机,那它拍出的数码图像分辨率能达到多少呢?” 这问题一出,就勾起了好多人的好奇心,包括我。为了找答案,克拉克开始了他的计算。
咱得先明白一个词,叫 “角分”,这是用来表示角度的单位。咱平常说的一度,就等于 60 角分。在光线好的时候,咱人眼能区分 0.6 角分的间隔,要是把它拆开,垂直和水平方向上各是 0.3 角分。克拉克就把这 0.3 角分当作一个像素单位。有了像素单位,还得知道人眼的可视范围。人眼的水平视角,一般不少于 120°,有的人厉害,能达到 180° 呢;垂直视角大概在 60° 左右。
有了这些数据,就能算人眼的分辨率了。120×120×60×60 = 51840000,这就是人眼 “摄像机” 拍出来图像的分辨率。再用这个数字除以 0.3×0.3,也就是 51840000÷0.09 = 576000000,结果是 5.76 亿。这就是为啥有人说 “人眼像素高达 5.76 亿”。
不过啊,这计算方法看着科学严谨,实际上是有问题的。你想想,咱眼睛看东西,偏离中心 20° 以后,看到的景象就开始模糊了。而且咱说的余光,根本看不到静止的物体,它就对移动的东西有反应。这么看来,人眼的真实像素,远没有 5.76 亿那么高,说不定连 2000 万都到不了。
还有一种说法,说人眼相当于 1.3 亿像素。这是咋算的呢?咱眼睛的焦距大概是 17mm,按瞳孔直径 8mm 算,光圈值相当于 f/2.1。咱视网膜就相当于相机的传感器或者底片。而且咱是双眼成像,两个眼睛的视觉范围有重叠区域。有研究说,人眼主视觉区域范围在 55° 左右,换算到全画幅相机上,一个 43mm 焦距的镜头能提供 55° 的视觉范围。虽然眼睛焦距是 17mm,但等效焦距视野只有 43mm。这么算下来,人眼相当于 1.3 亿像素。但这里面只有 600 万到 800 万是视锥细胞,就是对光学和颜色有高分辨率的细胞。也就是说,人眼这 1.3 亿像素里,只有 600 万像素是彩色像素,剩下 1 亿 2 千万像素都是黑白像素。
要是算单位像素面积,人眼 1 平方毫米里大概有 15 万像素,一般 2400 万像素的全画幅传感器,在 35mm×24mm 的面积内,1 平方毫米才有大约 2.8 万像素。从理论测算上看,在那 55° 的主要视觉区域内,人眼分辨率比一般全画幅相机的分辨率要高很多。而且咱眼睛是曲面 “传感器”,能弥补很多差异,所以理论上人眼边缘成像质量比相机还好。
你看,咱人眼多神奇,虽说像素可能没某些说法那么夸张,但功能可强大了。相机就算像素再高,也很难完全模拟出人眼看到的真实世界。咱每天用眼睛看这看那,都没好好想过它有多厉害。下次拍照的时候,你不妨再想想,咱这双眼睛,可比好多高级相机都牛呢!
好啦,今天关于人眼相当于多少万像素相机的事儿就讲到这儿。要是觉得有意思,就动动你那发财的小手,点赞关注一下,保准你往后日子财源广进,好运连连!返回搜狐,查看更多