如果您觉得项目不错,欢迎 ⭐ 也欢迎 PR 合作,如果有任何疑问,欢迎提 issue 交流。
自动监听并录制B站直播和弹幕、自动转换xml弹幕(含付费留言、礼物等)为ass并渲染进视频,自动投稿弹幕版视频和无弹幕视频至B站,无需GPU,兼容超低配置服务器与主机,兼容Windows 和 linux操作系统。
- 速度快:采用
pipeline流水线处理视频,理想情况下录播与直播相差半小时以内,没下播就能上线录播! - 多房间:同时录制多个直播间内容视频以及弹幕文件(包含普通弹幕,付费弹幕以及礼物上舰等信息)。
- 占用小:自动删除本地已上传的视频,极致节省空间。
- 模版化:无需复杂配置,开箱即用,( 🎉 NEW)通过 b 站搜索建议接口自动抓取相关热门标签。
- 检测片段并合并:对于网络问题或者直播连线导致的视频流分段,能够自动检测合并成为完整视频。
- 渲染弹幕版视频:自动转换xml为ass弹幕文件并且渲染到视频中形成有弹幕版视频并自动上传。
- 硬件要求极低:无需GPU,只需最基础的单核CPU搭配最低的运存即可完成录制,弹幕渲染,上传等等全部过程,无最低配置要求,10年前的电脑或服务器依然可以使用!
- ( 🎉 NEW)自动渲染字幕(如需使用本功能,则需保证有 Nvidia 显卡):采用 OpenAI 的开源模型
whisper,自动识别视频内语音并转换为字幕渲染至视频中。
项目架构流程如下:
graph TD
User((用户))--record-->startRecord(启动录制)
startRecord(启动录制)--保存视频和字幕文件-->videoFolder[(Video 文件夹)]
User((用户))--scan-->startScan(启动扫描 Video 文件夹)
videoFolder[(Video 文件夹)]<--间隔两分钟扫描一次-->startScan(启动扫描 Video 文件夹)
startScan <--视频文件--> whisper[whisperASR模型]
whisper[whisperASR模型] --生成字幕-->parameter[查询视频分辨率]
subgraph 启动新进程
parameter[查询分辨率] -->ifDanmaku{判断}
ifDanmaku -->|有弹幕| DanmakuFactory[DanmakuFactory]
ifDanmaku -->|无弹幕| ffmpeg1[ffmpeg]
DanmakuFactory[DanmakuFactory] --根据分辨率转换弹幕--> ffmpeg1[ffmpeg]
end
ffmpeg1[ffmpeg] --渲染弹幕及字幕 --> uploadQueue[(上传队列)]
User((用户))--upload-->startUpload(启动视频上传进程)
startUpload(启动视频上传进程) <--扫描队列并上传视频--> uploadQueue[(上传队列)]
-
OS: Ubuntu 22.04.4 LTS
尽量使用 22.04+ 的版本,更早版本的 ubuntu 自带 gcc 版本无法更新至 DanmakuFactory 以及 biliup-rs 所需版本,若使用较早版本,请参考 version `GLIBC_2.34‘ not found简单有效解决方法。
-
CPU:2核 Intel(R) Xeon(R) Platinum 85
-
GPU:无
-
内存:2G
-
硬盘:40G
-
带宽: 3Mbps
个人经验:若想尽可能快地更新视频,主要取决于上传速度而非弹幕渲染速度,因此建议网络带宽越大越好。
Tip
关于渲染速率:与弹幕数量有关,测试硬件的基本区间 2核 Xeon(R) Platinum 85 的 CPU 的渲染速率在 3 ~ 6 倍之间,也可使用 Nvidia GPU 加速,项目的测试显卡为 GTX1650,其渲染速率在 16 ~ 20 倍之间。
弹幕渲染具体时间可通过 渲染速率x视频时长 估算,如无需 GPU 加速渲染过程,请忽略本条提示。
如需使用 Nvidia GPU 加速, 请参考:
Note
如果你是 windows 用户,请不要使用命令提示符(Command Prompt)或 Windows PowerShell,请使用 PowerShell 或 Linux 终端例如 WSL 或 Git Bash(推荐)。
注意:PowerShell 和 Windows PowerShell 是不同的应用程序。
# 进入项目目录
cd bilive
# 安装所需依赖 推荐先 conda 创建虚拟环境
pip install -r requirements.txt
# 记录项目根目录
./setPath.sh && source ~/.bashrc
项目大多数参数均在 src/allconfig.py 文件中,相关参数如下:
- GPU_EXIST 是否存在 GPU(以
nvidia-smi显示驱动以及CUDA检查通过为主) - MODEL_TYPE 渲染模式,
pipeline模式(默认): 目前最快的模式,需要 GPU 支持,最好在blrec设置片段为半小时以内,asr 识别和渲染并行执行,分 p 上传视频片段。append模式: 基本同上,但 asr 识别与渲染过程串行执行,比 pipeline 慢预计 25%。merge模式: 等待所有录制完成,再进行合并识别渲染过程,上传均为完整版录播。
以下功能默认开启,如果无 GPU,请直接看 4.2 节,并将 src/allconfig.py 文件中的 GPU_EXIST 参数设置为 False,并将 MODEL_TYPE 调整为 merge 或者 append。
如果需要使用自动识别并渲染字幕功能,模型参数及链接如下,注意 GPU 显存必须大于所需 VRAM:
| Size | Parameters | Multilingual model | Required VRAM |
|---|---|---|---|
| tiny | 39 M | tiny |
~1 GB |
| base | 74 M | base |
~1 GB |
| small | 244 M | small |
~2 GB |
| medium | 769 M | medium |
~5 GB |
| large | 1550 M | large |
~10 GB |
Note
- 项目默认采用
small模型,请自行下载所需文件,并放置在src/subtitle/models文件夹中。 - 由于 github 单个文件上限是 100MB,因此本仓库内只保留了 tiny 模型以供试用,如需试用请将
settings.ini文件中的Mode参数设置为模型对应Size名称tiny,使用其他参数量模型同理。 - 如果追求识别准确率,推荐使用参数量
small及以上的模型。
首先按照 biliup-rs 登录b站,登录脚本在 src/upload/biliup ,登录产生的cookies.json保留在该文件夹下即可。
- 在
record.sh启动脚本中设置端口port - 在
settings.toml中设置视频存放目录、日志目录,也可启动后在 blrec 前端界面即http://localhost:port中进行设置。详见 blrec。
启动 blrec:
./record.sh请先确保你已经完成了 4.1 步骤,下载并放置了模型文件。 否则,请将
src/allconfig.py文件中的GPU_EXIST参数设置为False
输入以下指令即可检测已录制的视频并且自动合并分段,自动进行弹幕转换,字幕识别与渲染的过程:
./scan.sh./upload.shTip
上传默认参数如下,[]中内容全部自动替换。也可在 src/upload/extract_video_info.py 中自定义相关配置:
- 默认标题是"【弹幕】[XXX]直播回放-[日期]-[直播间标题]"。
- 默认描述是"【弹幕+字幕】[XXX]直播,直播间地址:[https://live.bilibili.com/XXX] 内容仅供娱乐,直播中主播的言论、观点和行为均由主播本人负责,不代表录播员的观点或立场。"
- 默认标签是根据主播名字自动在 b 站搜索推荐中抓取的[热搜词],详见bilibili-API-collect。
Note
相应的执行日志请在 logs 文件夹中查看。
logs # 日志文件夹
├── blrecLog # blrec 录制日志
│ └── ...
├── burningLog # 弹幕渲染日志
│ └── ...
├── mergeLog # 片段合并日志
│ └── ...
├── scanLog # scan运行日志
│ └── ...
├── uploadLog # 视频上传日志
│ └── ...
└── blrec.log # record.sh 运行日志