谁有兴趣试一下sepconv这个新出的插帧算法吗?[更新:添加实测效果]
本帖最后由 wby238 于 2017-11-5 23:09 编辑CVPR2017上一篇论文给出的参考实现,github地址为:https://github.com/sniklaus/pytorch-sepconv。用CNN来训练插帧算法,官方给的demo的效果简直逆天,完全看不到传统的插帧算法带来的artifacts。
demo视频地址:http://web.cecs.pdx.edu/~fliu/project/sepconv/demo.mp4
论文地址:http://web.cecs.pdx.edu/~fliu/papers/cvpr2017-interp.pdf
提供的模型是现实的视频训练的,所以选了一个真人片段和一个动画片段来测试效果,名称后加了_sepconv的就是处理过的,稍微看了一下效果,比SVP之类的好很多。
又尝试了放大一些动画截取的帧,在画面变化幅度过大的时候跟SVP一样产生了类似的artifacts,或许还跟作者说图片最好不要超过720P有关,可惜图片放在ubuntu那里忘记复制出来了,到时候有空我再更新一下吧。{:8_720:}
渣机就不试了{:4_696:} 一直用的A卡补帧 {:6_356:}
{:6_379:}
视频辨识度不够高....
这个是之后ICCV2017上的文章吧,同样的团队。CVPR2017上的是adaconv 用这个里面的程序把《来自新世界》的NCED2双倍帧率后截了一张问题比较严重的 我觉着用在动画上相当得不靠谱 花儿不哭 发表于 2017-12-18 15:35
我觉着用在动画上相当得不靠谱
插动画的话肯定要重新用动画数据集来训练一遍。
github主页3个open issue,都是想让作者给出训练用的脚本,然而作者鸟都不鸟,估计凉了。
cczzhh 发表于 2017-12-18 16:14
插动画的话肯定要重新用动画数据集来训练一遍。
github主页3个open issue,都是想让作者给出训练用的脚本 ...
现在是用三次元的图片训练的吗
花儿不哭 发表于 2017-12-19 15:38
现在是用三次元的图片训练的吗
显然。。。
不过既然这作者都不肯放训练脚本,说明作者本身就对自己的工作没什么信心,不用关注了。
页:
[1]
2