wby238 发表于 2017-11-4 12:36:04

谁有兴趣试一下sepconv这个新出的插帧算法吗?[更新:添加实测效果]

本帖最后由 wby238 于 2017-11-5 23:09 编辑

CVPR2017上一篇论文给出的参考实现,github地址为:https://github.com/sniklaus/pytorch-sepconv。用CNN来训练插帧算法,官方给的demo的效果简直逆天,完全看不到传统的插帧算法带来的artifacts。
demo视频地址:http://web.cecs.pdx.edu/~fliu/project/sepconv/demo.mp4
论文地址:http://web.cecs.pdx.edu/~fliu/papers/cvpr2017-interp.pdf

提供的模型是现实的视频训练的,所以选了一个真人片段和一个动画片段来测试效果,名称后加了_sepconv的就是处理过的,稍微看了一下效果,比SVP之类的好很多。


又尝试了放大一些动画截取的帧,在画面变化幅度过大的时候跟SVP一样产生了类似的artifacts,或许还跟作者说图片最好不要超过720P有关,可惜图片放在ubuntu那里忘记复制出来了,到时候有空我再更新一下吧。{:8_720:}

xfdz 发表于 2017-11-4 15:46:45

渣机就不试了{:4_696:}

南猫猫猫猫 发表于 2017-11-5 20:52:42

一直用的A卡补帧

zx353 发表于 2017-11-10 02:12:51

{:6_356:}
{:6_379:}



视频辨识度不够高....

花儿不哭 发表于 2017-12-18 13:03:49

这个是之后ICCV2017上的文章吧,同样的团队。CVPR2017上的是adaconv

花儿不哭 发表于 2017-12-18 15:33:10

用这个里面的程序把《来自新世界》的NCED2双倍帧率后截了一张问题比较严重的

花儿不哭 发表于 2017-12-18 15:35:25

我觉着用在动画上相当得不靠谱

cczzhh 发表于 2017-12-18 16:14:08

花儿不哭 发表于 2017-12-18 15:35
我觉着用在动画上相当得不靠谱

插动画的话肯定要重新用动画数据集来训练一遍。
github主页3个open issue,都是想让作者给出训练用的脚本,然而作者鸟都不鸟,估计凉了。

花儿不哭 发表于 2017-12-19 15:38:57

cczzhh 发表于 2017-12-18 16:14
插动画的话肯定要重新用动画数据集来训练一遍。
github主页3个open issue,都是想让作者给出训练用的脚本 ...

现在是用三次元的图片训练的吗

cczzhh 发表于 2017-12-20 03:52:57

花儿不哭 发表于 2017-12-19 15:38
现在是用三次元的图片训练的吗

显然。。。

不过既然这作者都不肯放训练脚本,说明作者本身就对自己的工作没什么信心,不用关注了。

页: [1] 2
查看完整版本: 谁有兴趣试一下sepconv这个新出的插帧算法吗?[更新:添加实测效果]