想请有编程背景的朋友开发一个自动生成时间轴的软件
实在太累了,眼睛已经受不了了,这些年来做字幕从0做起的时候,大部分时间都在调时间轴(当然也要翻译),一句话大概要调十来遍,复核又要十几次,几十遍,甚至加起来上百遍都有可能所以,如果有朋友可以开发一个相关软件,可以大大减轻眼睛的负担,如果能根据音频自动生成基本的时间轴,就可以把精力放在翻译上面了
我一般是用00:00:00 --> 00:00:00复制n行,然后手动输入相关的时间,这已经是完全人工的情况下比较省力的方法了
如果能有自动时间轴,之后微调就可以了,可以节省时间,生成的时间轴可以或者不需要生成基本的语音识别都行,语音识别精度不高,但是如果能有基本的语音识别,大概还能再节省一点时间,聊胜于无,参考油管上面的自动字幕,油管的自动时间轴在线播放算是比较准,一旦提取srt得到的文件就会自动加大延时(一句话可以持续十来秒,bug很厉害),试过传到油管让它自己生成时间轴,10部片子大概有2,3部会有那个选项,其他因为系统有bug,有些提示版权下架(热门的不行),就没有生成的功能了
恳请了
本帖最后由 shadows 于 2021-11-14 17:01 编辑
如果是一个容易的事,那现在已经有了
如果是一个困难的事,那只能等有兴趣并且有时间的大佬解决
粗略地搜到一堆项目,以下项目我均未尝试,只是看简介认为匹配楼主需要,请楼主自己尝试
https://github.com/smacke/ffsubsync Automagically synchronize subtitles with video.
https://github.com/sc0ty/subsync : does speech-to-text and looks for matching word morphemes
https://github.com/kaegi/alass rust-based subtitle synchronizer with a fancy dynamic programming algorithm
https://github.com/tympanix/subsync neural net based approach that optimizes directly for alignment when performing speech detection
https://github.com/oseiskar/autosubsync performs speech detection with bespoke spectrogram + logistic regression
https://github.com/kushtej/subsync Subtitle Synchronization raw script to sync subtitles with audio/video
Aegisub打开音频图谱直接框,框完也能够播放一次检查,挺顺手的啊 炎发灼眼的OTAKU 发表于 2021-11-14 19:12
Aegisub打开音频图谱直接框,框完也能够播放一次检查,挺顺手的啊
直接框也需要时间,自动生成就是一个粗轴,只要自动生成的轴质量好工作量就不大
就是想要这样的软件 如果是中文的话 现在已经可以做到语音出字幕了 像剪映那样 不过我丢日语动画进去 误差是挺大的 要不要试一下这个帖子里的“语音识别2.0” 我自己手抄字幕時,也是覺得時間軸很麻煩
後來寫程式來簡化這部分
只要輸入字幕開始跟結束的 frame 數、文本
之後由程式自動把 frame 值轉成時間、生成字幕檔
如果有能自動由聲音生成時間軸的程式,我也想試試 使用过语音识别,识别的准不准确,还有断句准不准确先另说,光轴和画面匹配就完全不行,有些轴可以适当多延长几十毫秒和画面同步切换,而有些就甚至要牺牲掉几十毫秒的音频来同步画面,这样做观感会好很多,但这只能手动完成,用aeg打轴的话,其实只需要完整过一遍片子空白轴就出来了,一开始不熟练可能每句话多听两遍,熟练以后一遍就打好然后切下一句就行了。所以绝大部分人都是习惯自己打,更省时间其实 确实就字幕而言时间轴是最麻烦的,一个地方不满意就得来回好几遍
页:
[1]