Airtime 项目技术文档
1. 安装指南
基本安装步骤
Airtime 的安装过程分为两个主要步骤:
1.1 运行安装脚本
首先,进入 Airtime 项目的根目录,运行安装脚本。
-
交互式安装: 运行以下命令以启动交互式安装:
sudo ./install如果你的终端不是运行 Bash,则需要使用以下命令:
sudo /bin/bash ./install你可能需要先安装 Bash。
-
非交互式全安装: 如果你是从零开始安装 Airtime,并且没有自定义配置,可以使用以下命令进行非交互式全安装:
sudo ./install -fiap其中:
-f:强制,非交互式(无提示)-i:安装默认的 Icecast 2 设置-a:安装默认的 Apache 设置-p:创建默认的 Airtime PostgreSQL 用户
这将安装 Airtime 所需的所有组件,并将
/usr/share/airtime设置为 Apache 的 Web 根目录。 -
查看所有安装选项: 要查看所有安装选项,可以运行:
sudo ./install --help
1.2 完成安装
运行安装脚本后,打开浏览器并访问 http://localhost 以完成交互式设置。如果你有自定义的 Apache 配置,请导航到你的 Airtime Web 主机。
完成设置后,你将看到一个配置检查清单,以确保 Airtime 安装正确。如果有任何配置错误,检查清单将提供一些有用的提示来解决问题。
如果检查清单全部为绿色,说明你已准备好开始使用 Airtime!
2. 项目使用说明
主要功能
Airtime 是一个开源的广播电台自动化管理应用程序,具有以下主要功能:
- 基于 Web 的远程管理:授权人员可以通过 Web 界面添加节目素材、创建播放列表或智能块,并进行实时流媒体播放。
- 自动化调度:Airtime 提供了一个调度功能,允许用户创建带有内容的节目,并在指定的时间和日期播放。播放列表、智能块和远程流 URL 可以多次使用。
- 可靠的播放输出:Airtime 使用开源的 Liquidsoap 流媒体语言,确保精确到亚秒级的可靠播放。
- 开放的可扩展架构:电台可以自由扩展和修改程序代码的所有部分,基于 GNU AGPLv3 许可证。
使用流程
- 登录管理界面:通过浏览器访问 Airtime 的管理界面。
- 添加节目素材:在管理界面中上传音频文件,并为其添加元数据。
- 创建播放列表:使用上传的音频文件创建播放列表或智能块。
- 调度节目:在调度日历中安排节目播放时间。
- 实时流媒体播放:通过 Web 界面进行实时流媒体播放。
3. 项目 API 使用文档
Airtime 提供了 API 接口,允许开发者通过编程方式与 Airtime 进行交互。以下是 API 的基本使用方法:
API 认证
在使用 Airtime API 之前,需要进行认证。通常使用 API 密钥或用户凭证进行认证。
API 调用示例
以下是一个简单的 API 调用示例,用于获取当前播放的节目信息:
curl -X GET http://localhost/api/now-playing -H "Authorization: Bearer YOUR_API_KEY"
常用 API 端点
- 获取当前播放的节目:
GET /api/now-playing - 获取播放列表:
GET /api/playlists - 创建播放列表:
POST /api/playlists - 获取调度日历:
GET /api/schedule
4. 项目安装方式
Airtime 的安装方式主要有两种:
4.1 交互式安装
通过运行 sudo ./install 命令,系统会提示你进行交互式安装,选择安装选项并完成配置。
4.2 非交互式全安装
通过运行 sudo ./install -fiap 命令,系统会自动完成所有组件的安装,并设置默认的 Icecast、Apache 和 PostgreSQL 配置。
4.3 自定义安装
如果你有特定的配置需求,可以通过运行 sudo ./install --help 查看所有安装选项,并根据需要进行自定义安装。
通过以上文档,你应该能够顺利安装、使用 Airtime 项目,并了解如何通过 API 进行交互。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00