请问压制组如果压制YUV444格式会用什么算法?
本帖最后由 infinix 于 2024-5-19 23:00 编辑#请问压制组如果压制YUV444格式会用什么算法?
#另外一直有一个疑问,大多数片源本身是YUV420的,所以在理论上讲,压制组压片升频到444的算法对比自己用mpv+KrigBilateral到底应该哪个结果更好呢?
#我目前的猜测应该是压片的时候如果就处理了色度升频,使用的色度升频算法应该是要远好于实时播放时使用的色度升频算法?另外根据VCB大佬们的科普,我个人的理解是压片过程中就直接用了更高规格的444色度采样转换出来的作品,应该要比420转换出来的作品在精度上丢失的更少吧?不知道这么理解对不对,求大佬们帮忙解惑答疑。
KrigBilateral挺垃圾的,不如cfl,而且一眼就能看出有偏移,怎么调都调不对
另外你说的是AI-Raws吗,据说是用naobu弄出来的,我也不知道这是个啥。如果需要RGB空间下处理,输出转YUV后不砍成420是有道理的,只是看不看得出来不一定。想测的话可以自己把一个片源解码了,砍成420截图和444截图对比
至于这些升频器跟压制组的哪个好,不好说,因为源不可能一样。你播放原盘,用mpv升色度,压制组从原盘升色度之后还得编码,升频和编码两个环节都会影响最后的比较结果。 你要不计成本的话,可以用 nnedi3-*-chroma.hook,
不过我觉得 spline36 或 lanczos 加上 *scale-antiring=0.6 就够用了(
首先为什么要用YUV444,就V组而言主要是处理一些420下无法解决的问题。举个简单的例子,1080p下精细的1px色度线条,在420下只有0.5px,最常见的后果是导致色度锯齿。没有办法,420的特性就决定了这不是它能解决的,只能选用444来修复这一问题。不难想到,这一过程显然不会用“常规用于拉伸的算法”,而是用一些有“修复能力”的算法,现阶段主要以ai(配合一些后处理)为主。
第二个问题,涉及到RGB处理就一定要YUV444输出吗,显然是未必的。如果画面不存在特别精细的色度细节需要444来保留,那么正常都是转为420。同样目前V组有很多操作是在RGB下做的,比如降噪、deblock等,最后如无必要也都回到420了。
至于AI-Raws,据我听说他们的流程(一般称为naobu)基本是全RGB的,只是最后转回YUV,这不是一个算法能概括的。至于最后是否可以输出420呢,前面讲到这需要人力来判断,对于一个量产组而言,稳妥起见全部用444到也无可厚非。另外关于444,其实AI-Raws是有一些个人追求的,从形式上比起420这种“别扭”的东西,444更“优雅”一点,(当然代价就是兼容性不太好。 sommio 发表于 2024-5-20 02:23
你要不计成本的话,可以用 nnedi3-*-chroma.hook,
不过我觉得 spline36 或 lanczos 加上 *scale-antiring= ...
--cscale-antiring好像没效果,实际影响色度空间的是--scale-antiring
gpu-next: --cscale-antiring is broken, --scale-antiring affects chroma
本帖最后由 孤雨独火 于 2024-5-20 21:29 编辑
我觉得你的表述可能有点让人产生联想偏移。
我认为实际上对应你想知道的部分应该是 mvf.toRGB()
页:
[1]