找回密码
 立即注册
楼主: 孤雨独火

[MPV+] MPV_lazy 懒人包

该用户从未签到

0

主题

5

回帖

0

VC币

新手上路

Rank: 1

积分
80
史莱姆KING 发表于 2023-6-24 21:53:03 | 显示全部楼层
sommio 发表于 2023-6-20 16:04
貌似可以通过 lua 脚本支持


感谢,我看看这东西怎么个用法2333
回复 支持 反对

使用道具 举报

  • TA的每日心情
    擦汗
    2024-2-6 16:57
  • 签到天数: 36 天

    [LV.5]常住居民I

    0

    主题

    65

    回帖

    0

    VC币

    中级会员

    Rank: 3Rank: 3

    积分
    5576
    黑的白 发表于 2023-6-28 00:54:45 | 显示全部楼层
    本帖最后由 黑的白 于 2023-6-28 01:03 编辑

    https://github.com/the-database/ ... animejanai/releases
    animejanai更新了
    一些对比:https://slow.pics/c/NCVa3anZ

    点评

    v4已经提供了k7sfunc接口,我不需要做任何对应更新改动  发表于 2023-6-28 03:16
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2024-3-7 00:02
  • 签到天数: 119 天

    [LV.6]常住居民II

    0

    主题

    102

    回帖

    0

    VC币

    中级会员

    Rank: 3Rank: 3

    积分
    14085
    殺の微笑 发表于 2023-6-30 00:54:59 | 显示全部楼层
    看了楼主给的自定义VPY的教程,搞了很久很久,实在还是没搞明白,所以再来请教下楼主,
    我想给ESRGAN_NV更新janaiV2,
    我从“https://github.com/hooke007/MPV_lazy/wiki/3_K7sfunc#esrgan_nv”中下载了所需的依赖fmtconv + vsmlrt,fmtconv就是下载那个最新的,
    vsmlrt就下载了“https://github.com/AmusementClub/vs-mlrt/releases/tag/v13.2”中的“vsmlrt-cuda.v13.2.7z”+“vsmlrt-windows-x64-cuda.v13.2.7z”+“VSTRT-Windows-x64.v13.2.7z”三个文件。
    上面这些文件解压之后,直接覆盖在了MPV-LAZY文件夹的“vapoursynth64\plugins”和“vapoursynth64\plugins\models”中去
    然后ESRGAN_NV的VPY文件直接复制粘贴了“https://github.com/hooke007/MPV_lazy/blob/main/portable_config/vs/SR_ESRGAN_NV.vpy”中的参考写法。
    但ESRGAN_NV.VPY依然无法生效,请问我是哪一步出了问题呢,或者说,我有哪一步没做呢?
    我找了很久,实在是找不到答案,所以求助一下,谢谢

    点评

    实在搞不明白的话等下一版发布用现成的吧  发表于 2023-6-30 01:16
    main分支不支持v13  发表于 2023-6-30 01:16
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2024-3-7 00:02
  • 签到天数: 119 天

    [LV.6]常住居民II

    0

    主题

    102

    回帖

    0

    VC币

    中级会员

    Rank: 3Rank: 3

    积分
    14085
    殺の微笑 发表于 2023-6-30 00:57:44 | 显示全部楼层
    如果我步骤没有漏的话(虽然我感觉应该是漏了关键的哪一步),

    我能想到的,
    就是在“https://github.com/AmusementClub/vs-mlrt/releases/tag/v13.2”中,
    还有哪些我必须要下载但我没下载的文件,我没有下载

    我想放图,但论坛总是提示我无法上传附件,不好意思

    点评

    直接下 vsMega 包去用啊,你又不是从头部署,为什么要自己去解决依赖问题  发表于 2023-6-30 01:14
    用 uai_nv_trt 去调用自定义模型  发表于 2023-6-30 01:12
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2024-3-7 00:02
  • 签到天数: 119 天

    [LV.6]常住居民II

    0

    主题

    102

    回帖

    0

    VC币

    中级会员

    Rank: 3Rank: 3

    积分
    14085
    殺の微笑 发表于 2023-6-30 01:26:58 | 显示全部楼层
    谢谢楼主,其实我是先搞了“UAI_NV_TRT”之后,发现怎么也无法运行,
    “UAI_NV_TRT”的操作就跟上面我说的“ESRGAN_NV”差不多,


    所以才又搞“ESRGAN_NV”试试看的。。。结果两个都不行,实在是弄不明白了
    本来想自己动手丰衣足食,结果实在搞不懂,只能等楼主发布下一版整合了。。。。


    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2024-3-7 00:02
  • 签到天数: 119 天

    [LV.6]常住居民II

    0

    主题

    102

    回帖

    0

    VC币

    中级会员

    Rank: 3Rank: 3

    积分
    14085
    殺の微笑 发表于 2023-7-1 23:17:14 | 显示全部楼层
    楼主,我在测试V5版本,下载了VSmega包,
    发现在“ETC_UAI_NV_TRT.vpy”中,没法用4M多大小的ONNX模型,
    试了几个不同的,总是会出现需要“27G显存”,我的显卡只有“24G显存”,所以没法用,这样的提示,
    其实我也看到楼主说4080测试到最多能用2.5M大小的模型,4M多估计4090也吃不消
    但是这样子的话,cugan不就全军覆没了吗。。。。
    我特意再试了一下1.9M的animejanaiV2L3,所有配置拉满,
    播放1080P10bit视频的时候显卡占用60%多,完美流畅使用
    请问是cugan的模型需要修改什么才能用吗?
    还有,楼主在ETC_UAI_NV_TRT.vpy使用说明那里,
    说了名字里带有“fp32”和“fp16”的模型,
    我找了下vsmega包,以及之前下载的vsmlrt-windows-x64-cuda.v13.2.7z,发现好像并没有类似名字的模型,请问在哪里下载“fp32”和“fp16”的模型呢?

    点评

    2.5是针对esrgan说的,waifu2x的可以略大点  发表于 2023-7-2 01:14
    参数就里能限制显存,你再仔细看看  发表于 2023-7-2 01:12
    https://github.com/hooke007/MPV_lazy/wiki/3_K7sfunc#uai_nv_trt 最底下那个链接是看不见吗???  发表于 2023-7-2 01:09
    去看我的文档,你到底在看啥啊,文档里不都写了吗  发表于 2023-7-2 01:06
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2024-3-7 00:02
  • 签到天数: 119 天

    [LV.6]常住居民II

    0

    主题

    102

    回帖

    0

    VC币

    中级会员

    Rank: 3Rank: 3

    积分
    14085
    殺の微笑 发表于 2023-7-1 23:19:26 | 显示全部楼层
    还有,我记得楼主曾经说过,某个名字里带有“FP16”的模型是CUGAN的优化版,
    4080也能做到不降分辨率给1080P视频双倍放大,
    不过我翻了一下楼,一下子找不到那个文件了。。。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    擦汗
    2021-12-4 12:48
  • 签到天数: 42 天

    [LV.5]常住居民I

    46

    主题

    2720

    回帖

    2020

    VC币

    星辰大海

    Rank: 20Rank: 20Rank: 20Rank: 20Rank: 20

    积分
    421643

    崭露头角活跃达人CD!BD!坚持不懈灌水之王日积月累

    孤雨独火  楼主| 发表于 2023-7-2 01:36:31 | 显示全部楼层
    殺の微笑 发表于 2023-7-1 23:19
    还有,我记得楼主曾经说过,某个名字里带有“FP16”的模型是CUGAN的优化版,
    4080也能做到不降分辨率给1080 ...

    总是会出现需要“27G显存”,我的显卡只有“24G显存”,所以没法用,这样的提示,


    这个我上次提过,只要引擎最终能生成,不影响。


    16g照样过。
    你判断无法通过的依据是什么,哪里的报错?

    cugan pro 比esrgan复杂,我这里需要等待十分钟才能生成。
    1080p不做预先缩减,4080也无法流畅运行。

    本帖子中包含更多资源

    您需要 登录 才可以下载或查看,没有账号?立即注册

    x
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2024-3-7 00:02
  • 签到天数: 119 天

    [LV.6]常住居民II

    0

    主题

    102

    回帖

    0

    VC币

    中级会员

    Rank: 3Rank: 3

    积分
    14085
    殺の微笑 发表于 2023-7-2 02:34:57 | 显示全部楼层
    孤雨独火 发表于 2023-7-2 01:36
    “总是会出现需要“27G显存”,我的显卡只有“24G显存”,所以没法用,这样的提示,”

    谢谢楼主,搞定了,等了12分钟,终于OK了,有可能12600K也有点拖后腿,

    看样子主要问题是我之前等的不够久(之前都是等了5、6分钟就关了,以为是失败了),
    我开了“pro-denoise3x-up2x.onnx”的模型,降噪开到3,不缩减原生1080P,
    用来播放了几个24帧1080P10BIT蓝光圆盘,显卡占用稳定99%,但都能够流畅播放不掉帧。

    顺便想请教下楼主两个问题:
    设置里有个“Ws_Size = 0”,下面有个提示“<0~1024> 整数,约束显存(MiB),最小值为128,设为低于此数的值即为不限制”,
    我应该选“0”比较好还是选最大的“1024”比较好呢?或者说还有更大的整数?

    还有,想问下,cugan每个脚本的区别有详细说明吗,我感觉看标题都搞不懂啥意思,
    一个是“pro-denoise3x-up2x”,一个“pro-no-denoise3x-up2x”,
    应该就是降噪3级放大2倍的意思?但后面那个的“no”又是啥意思。。。
    还有个“pro-conservative-up2x”,这应该就是单纯放大2倍不降噪的意思?

    点评

    没有脚本,那是模型文件ONNX。要说明的话建议找bilibili的原始仓库去问  发表于 2023-7-2 03:26
    这个数和显存的实际使用没有直接关系,引擎能过就不要动它,只有显存炸的时候才去改  发表于 2023-7-2 03:25
    只要cuda占用一直在,那就表示引擎的构建没有结束  发表于 2023-7-2 03:24
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2024-3-7 00:02
  • 签到天数: 119 天

    [LV.6]常住居民II

    0

    主题

    102

    回帖

    0

    VC币

    中级会员

    Rank: 3Rank: 3

    积分
    14085
    殺の微笑 发表于 2023-7-2 03:37:50 | 显示全部楼层
    本帖最后由 殺の微笑 于 2023-7-2 03:38 编辑

    十分感谢,请问能发一下模型的bilibili原始仓库的链接给我吗,我找了一会没找到在哪里。。。


    还有最后一个问题想问下,
    “styler00dollar_sudo_shuffle_cugan_x2_fp16_opset18”这模型是cugan pro吗?
    还是说是cugan latest呢?(我也不知道这个latest是新版还是快速低配版的意思。。。)这个有设置降噪吗

    点评

    https://github.com/bilibili/ailab  发表于 2023-7-2 04:10
    发布人没说,不知道  发表于 2023-7-2 04:10
    回复 支持 反对

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    快速回复 返回顶部 返回列表