为什么2020年了,视频的画质还是不如照片?

现在听一些卖电视机,显示设备的厂家在炒作“4K”啊,“8K”的概念,感觉非常高大上,而高端的4K设备,8K设备,也确实非常昂贵,但事实上,动态的视频的画质,即便是2020年的如今,依然(普遍)是远没有达到静态图照片的水平。

你拿一部可以摄录超清内容的4K相机,开到最高的码率设置,拍一段视频看看,不出意外,依然达不到你拍摄最高画质的JPG照片的画质水平,无论是宽容度,还是解析度,还是细节的表现,色彩的层次感,都会远远不如视频,哪怕它是一个6K超采的4K视频,哪怕他码率高达400mbps……

理论上来说,视频每一帧都是拍的图片,为什么视频拍完画质就远不如图片?有一个极大的原因,就是容量。

你想想,你的手机拍一张照片,需要多大?我用iphone,拍一张1200万像素的照片,需要2M左右,听起来好像并不大啊,但你想想,如果用这个尺寸去做4K视频,一帧就是2M,如果拍24FPS的4K视频,一秒就是24帧,也就是24张照片,那就需要24x2,48M的空间去记录一秒钟的信息。感觉不是很大?你拍个5分钟的话,就是5x60x48,大概要2800M的空间,也就是说,拍个5分钟的视频,就要2G的空间,那绝大多数的人,都是接受不了的。

但实际上,用iphone拍一段4K 24fps的视频,大概主需要500M左右的空间,比理论上小很多。原因就是,视频需要进行图像信息的压缩,来缩小体积。

图片是用RGB的格式来记录不同的色彩信息和亮度信息的,人们发现了,人眼对亮度信息的敏感度远高于色彩,于是打算牺牲色彩信息,来压缩每一帧的图片节省空间,于是,视频是YUV的方式来诠释视频的色彩和亮度,牺牲一部分不敏感的色彩信息,换来了更多的空间,这就是视频画质比不过图片的原因。

在用Ycbc的色彩空间来记录视频信息的时候,会在色度采样的时候牺牲不少颜色信息,来换取更多的空间,原始的亮度,色度采样比例是4∶4∶4,而到我们能够看到的广播电视、互联网视频,甚至是蓝光、电影这些规格,都会被压缩到4:2:0的规格,4是指亮度,第二个2是指蓝色的色度,第三个0是指红色的色度,你没看错,0,不是丢失了一半,而是在丢失了全部……也就说,我们看到的绝大多数的视频,色彩是大量丢失的,所以肯定没有照片的那种层次感。

所以你拿视频来截图,和静态的照片去比细节,一般情况都是没法比的,网络源更是被压得不成型,很难享受到真正的高清……

再退一步,说实话4K的分辨率本身就不高,你想,如今的安卓旗舰手机拍照,没个4000万像素都不敢出来叫旗舰不是吗?4K才多少分辨率?3840×2160,也就800万像素……800万像素是6年前左右手机的拍照标准了……虽然不能把像素和清晰度,画质直接打等号,但从这个数目上去感觉,4K的视频画质似乎也高清不到哪去,8K视频的分辨率,大概有3300万像素,已经超过了一般全画幅相机2400万像素的像素数,似乎真是超清了……但,并没有这么简单……

那么问题又来了。为什么我们接受不了视频的容量?但却能接受一张照片的容量。看看你的单反,拍一张2400万像素的单反照片大概可以有8-10M的容量,你能接受这个容量,却接受不了视频里每一帧都是这个容量的尺寸?我觉得除了设备上的空间不足外,还有是心理上的一种接受度。

照片,往往是捕捉最美的一个瞬间。人们为了这个最美的瞬间,可以接受10M甚至20M的大容量,如果能以最佳的方式,记录住你看到的最美的风景或者一瞬间,那么一张6100万像素的RAW照片,占了80M的空间,我觉得你的内存卡里放满了这些美丽的瞬间,都是可以接受的;

但视频,记录的是整个过程……以比较平均的方式牺牲画质,来记录整个过程,没有着重强调某一帧,所以,视频被接纳的程度也会减少,大家愿意牺牲画质,以更加平均的方式去记录每一个瞬间,所以对于视频的占空间的比例的接纳感,也会不同于只记录一个精华的瞬间的照片,或者说图片。

那么,视频的画质,何时才有希望打平照片或者说单张的图片?

我觉得,只要新的压缩技术,甚至说是一种理想的压缩技术没有诞生的话,视频的画质永远是超不过图片的,这种理想的压缩技术要拥有远高于目前先进的H265的压缩比例,还能提高远高于265的画质,最好是超高压缩比的RAW,但解码的时候又不会太吃GPU,目前这种压缩技术不存在,而且事实上照片的画质也在不断提高,因为专业摄影的门槛也在不断降低,16bit的照片未来可能变得普及,到时候,就是12bit的视频普及了,画质还是会被照片打得满地找牙……

(0)

相关推荐