pyannote-audio核心架构:从音频处理到深度学习模型
pyannote.audio是一个基于深度学习的开源音频处理工具包,专注于说话人日志化、语音活动检测和重叠语音检测等任务。其核心架构包含四个主要模块:音频处理模块(Audio)负责音频文件读取、预处理和信号处理;核心模型架构(Model)提供深度学习模型基础框架;推理引擎(Inference)实现高效的模型推理;管道系统(Pipeline)构建完整的工作流程。该框架采用模块化设计,支持多任务学习和灵活的配置,为音频分析提供了从信号处理到深度学习模型的完整解决方案。
音频处理模块(Audio)与信号预处理
pyannote.audio的核心音频处理模块提供了完整的音频文件读取、预处理和信号处理功能,为后续的深度学习模型训练和推理奠定了坚实基础。该模块采用模块化设计,支持多种音频格式和灵活的预处理流程。
音频文件读取与验证
Audio类是音频处理的核心组件,支持多种音频输入格式:
from pyannote.audio import Audio
# 初始化音频处理器
audio = Audio(sample_rate=16000, mono='downmix')
# 支持多种输入格式
waveform, sample_rate = audio("audio.wav") # 文件路径
waveform, sample_rate = audio(Path("audio.wav")) # Path对象
waveform, sample_rate = audio(open("audio.wav", "rb")) # 文件对象
waveform, sample_rate = audio({"audio": "audio.wav"}) # 字典格式
waveform, sample_rate = audio({
"waveform": torch.rand(2, 88200), # 直接提供波形数据
"sample_rate": 44100
})
Audio类的验证机制确保输入数据的完整性:
flowchart TD
A[音频输入] --> B{输入类型判断}
B -->|文件路径| C[转换为字典格式]
B -->|文件对象| D[返回流格式]
B -->|字典格式| E[验证必需字段]
E --> F{包含waveform?}
F -->|是| G[验证波形形状和采样率]
F -->|否| H[验证音频文件存在性]
G --> I[返回验证通过的数据]
H --> I
采样率转换与声道处理
音频预处理流程支持灵活的采样率转换和声道处理策略:
class Audio:
def downmix_and_resample(self, waveform: Tensor, sample_rate: int) -> Tensor:
"""下混和重采样处理"""
num_channels = waveform.shape[0]
# 多声道转单声道
if num_channels > 1:
if self.mono == "random":
channel = random.randint(0, num_channels - 1)
waveform = waveform[channel: channel + 1]
elif self.mono == "downmix":
waveform = waveform.mean(dim=0, keepdim=True)
# 采样率转换
if (self.sample_rate is not None) and (self.sample_rate != sample_rate):
waveform = torchaudio.functional.resample(
waveform, sample_rate, self.sample_rate
)
sample_rate = self.sample_rate
return waveform, sample_rate
功率归一化与信号增强
音频信号预处理包含功率归一化功能,确保模型训练的稳定性:
@staticmethod
def power_normalize(waveform: Tensor) -> Tensor:
"""功率归一化波形数据
计算波形的RMS值并进行归一化,避免音量差异影响模型性能
"""
rms = waveform.square().mean(dim=-1, keepdim=True).sqrt()
return waveform / (rms + 1e-8) # 添加小值避免除零错误
音频裁剪与片段提取
Audio类提供精确的音频裁剪功能,支持多种裁剪模式:
def crop(self, file: AudioFile, segment: Segment,
duration: Optional[float] = None, mode="raise") -> Tuple[Tensor, int]:
"""从音频文件中提取指定时间段的片段
Parameters
----------
file : AudioFile
输入音频文件
segment : Segment
要提取的时间段(开始时间,结束时间)
duration : float, optional
期望的输出时长,用于填充或截断
mode : str
处理模式:'raise'(超出范围报错)、
'pad'(填充静音)、
'ignore'(忽略超出部分)
Returns
-------
waveform : Tensor
裁剪后的波形数据
sample_rate : int
采样率
"""
信号处理工具函数
pyannote.audio提供了丰富的信号处理工具,包括二值化、阈值处理等:
def binarize(scores, onset: float = 0.5, offset: Optional[float] = None,
initial_state: Optional[Union[bool, np.ndarray]] = None):
"""滞后阈值二值化处理
应用onset和offset阈值进行稳健的二值化,避免信号抖动
"""
预处理流水线架构
音频预处理模块采用分层架构设计:
classDiagram
class Audio {
+sample_rate: int
+mono: str
+backend: str
+__call__(file: AudioFile) Tuple[Tensor, int]
+crop(file, segment, duration, mode) Tuple[Tensor, int]
+get_duration(file) float
+power_normalize(waveform) Tensor
+downmix_and_resample(waveform, sample_rate) Tensor
}
class Binarize {
+onset: float
+offset: float
+min_duration_on: float
+min_duration_off: float
+__call__(scores: SlidingWindowFeature) Annotation
}
class SignalProcessor {
+binarize(scores, onset, offset, initial_state)
+binarize_ndarray(scores, onset, offset, initial_state)
+binarize_swf(scores, onset, offset, initial_state)
}
Audio --> SignalProcessor : 使用
SignalProcessor --> Binarize : 生成
性能优化与缓存机制
音频处理模块实现了智能缓存机制,提升处理效率:
def get_torchaudio_info(file: AudioFile, backend: str = None) -> torchaudio.AudioMetaData:
"""获取音频文件元数据并缓存结果
避免重复读取文件元信息,显著提升批量处理性能
"""
多后端支持与兼容性
模块支持多种torchaudio后端,确保在不同环境下的兼容性:
# 自动选择最优后端
backends = torchaudio.list_audio_backends() # ['ffmpeg', 'soundfile', 'sox']
backend = "soundfile" if "soundfile" in backends else backends[0]
错误处理与健壮性
音频处理模块包含完善的错误处理机制:
def validate_file(file: AudioFile) -> Mapping:
"""验证音频文件格式和完整性
支持多种输入格式,提供清晰的错误信息
"""
if not isinstance(file, (Mapping, str, Path, IOBase)):
raise ValueError("不支持的音频文件格式")
# 详细验证逻辑...
音频处理模块的设计充分考虑了实际应用场景的需求,提供了灵活、高效且健壮的音频预处理解决方案,为pyannote.audio的深度学习模型提供了高质量的输入数据基础。
核心模型架构(Model)与推理引擎(Inference)
pyannote.audio的核心架构围绕深度学习模型和高效的推理引擎构建,为音频处理任务提供了强大的基础框架。该架构采用模块化设计,支持多种音频任务,包括说话人分离、语音活动检测、重叠语音检测等。
模型基类架构
pyannote.audio的模型架构基于PyTorch Lightning框架,提供了统一的接口和标准化的训练流程。核心的Model基类封装了音频处理的基本功能:
class Model(pl.LightningModule):
def __init__(self, sample_rate: int = 16000, num_channels: int = 1, task: Optional[Task] = None):
super().__init__()
self.save_hyperparameters("sample_rate", "num_channels")
self.task = task
self.audio = Audio(sample_rate=self.hparams.sample_rate, mono="downmix")
模型架构的关键特性包括:
- 任务感知设计:模型与具体任务解耦,通过
task属性动态配置 - 规格管理:自动处理不同任务的输入输出规格
- 设备管理:支持GPU加速和多设备训练
- 检查点兼容性:确保模型版本间的兼容性
模型规格系统
模型使用统一的规格系统来定义输入输出特性:
classDiagram
class Specifications {
+duration: float
+min_duration: float
+warm_up: Tuple[float, float]
+resolution: Resolution
+classes: List[str]
+powerset: bool
+powerset_max_classes: int
}
class Model {
+specifications: Union[Specifications, Tuple[Specifications]]
+task: Task
+build()
+forward(waveforms)
}
class Task {
+specifications: Specifications
+setup()
+prepare_data()
}
Model --> Specifications : has
Model --> Task : uses
推理引擎设计
Inference类负责高效地执行模型推理,支持滑动窗口和整段处理两种模式:
class Inference(BaseInference):
def __init__(self, model: Union[Model, Text, Path],
window: Text = "sliding", duration: Optional[float] = None,
step: Optional[float] = None, batch_size: int = 32,
device: Optional[torch.device] = None):
# 模型加载和配置
self.model = model if isinstance(model, Model) else Model.from_pretrained(model)
self.window = window
self.duration = duration
self.step = step
self.batch_size = batch_size
self.device = device
推理引擎的核心功能包括:
- 滑动窗口处理:将长音频分割为重叠的短片段进行处理
- 批量推理优化:支持批量处理提高GPU利用率
- 内存管理:自动处理内存溢出和设备转移
- 结果聚合:智能聚合重叠窗口的输出结果
模型推理流程
sequenceDiagram
participant User
participant Inference
participant Model
participant Device
User->>Inference: 创建推理实例
Inference->>Model: 加载预训练模型
Inference->>Device: 移动到指定设备
User->>Inference: 提供音频文件
Inference->>Inference: 音频预处理
Inference->>Inference: 分块处理
loop 批量处理
Inference->>Model: 前向传播
Model-->>Inference: 返回输出
end
Inference->>Inference: 结果聚合
Inference-->>User: 返回最终结果
支持的模型架构
pyannote.audio提供了多种预定义的模型架构:
| 模型类型 | 架构名称 | 主要特性 | 适用任务 |
|---|---|---|---|
| 分割模型 | PyanNet | LSTM + 线性层,轻量级 | 语音活动检测 |
| 分割模型 | SSeRiouSS | Wav2Vec2特征 + LSTM | 说话人分离 |
| 嵌入模型 | XVector | MFCC + 统计池化 | 说话人识别 |
| 嵌入模型 | ECAPA-TDNN | 注意力机制 + 池化 | 说话人验证 |
| 分离模型 | ToTaToNet | 编码器-解码器架构 | 语音分离 |
性能优化特性
推理引擎包含多项性能优化技术:
内存优化策略
- 动态批处理大小调整
- 梯度检查点技术
- 内存映射文件支持
计算优化
- 异步数据加载
- 混合精度训练支持
- 多GPU并行推理
代码示例:基础推理流程
from pyannote.audio import Inference
from pyannote.audio.core.model import Model
# 创建推理实例
inference = Inference(
model="pyannote/segmentation-3.0",
window="sliding",
duration=2.0,
step=0.1,
batch_size=32,
device=torch.device("cuda")
)
# 执行推理
result = inference("audio.wav")
# 处理多任务输出
if isinstance(result, tuple):
segmentation, embedding = result
else:
segmentation = result
高级特性
多任务支持
# 多任务模型配置
class MultiTaskModel(Model):
def __init__(self, tasks: List[Task]):
super().__init__()
self.tasks = tasks
self.shared_encoder = build_shared_encoder()
self.task_heads = nn.ModuleList([build_task_head(t) for t in tasks])
def forward(self, waveforms):
features = self.shared_encoder(waveforms)
outputs = [head(features) for head in self.task_heads]
return tuple(outputs)
自定义聚合策略
def custom_aggregation_hook(outputs: np.ndarray) -> np.ndarray:
"""自定义后处理钩子函数"""
# 应用温度缩放
outputs = outputs / 0.7
# 应用softmax
outputs = np.exp(outputs) / np.sum(np.exp(outputs), axis=-1, keepdims=True)
return outputs
inference = Inference(
model=model,
pre_aggregation_hook=custom_aggregation_hook
)
错误处理和恢复
推理引擎包含完善的错误处理机制:
try:
result = inference(audio_file)
except MemoryError as e:
# 自动降低批处理大小
inference.batch_size = inference.batch_size // 2
result = inference(audio_file)
except RuntimeError as e:
if "CUDA out of memory" in str(e):
# 切换到CPU模式
inference = inference.to(torch.device("cpu"))
result = inference(audio_file)
这种架构设计使得pyannote.audio能够高效处理各种音频分析任务,同时保持良好的扩展性和可维护性。模型与推理引擎的分离使得研究人员可以专注于模型设计,而无需担心推理优化的细节。
管道系统(Pipeline)设计与工作流程
pyannote.audio的管道系统是其核心架构的重要组成部分,它提供了一个高度模块化和可扩展的框架来处理复杂的音频分析任务。管道系统通过将多个处理步骤串联起来,实现了从原始音频输入到最终分析结果的完整工作流程。
管道系统架构设计
pyannote.audio的管道系统采用基于组件的设计模式,每个管道都由多个可配置的模块组成:
classDiagram
class Pipeline {
+from_pretrained()
+apply()
+default_parameters()
+classes()
}
class SpeakerDiarization {
+get_segmentations()
+get_embeddings()
+apply()
}
class Inference {
+__call__()
+batch_size
}
class Model {
+specifications
+duration
}
class Clustering {
+__call__()
+set_num_clusters()
}
Pipeline <|-- SpeakerDiarization
SpeakerDiarization --> Inference
Inference --> Model
SpeakerDiarization --> Clustering
核心管道工作流程
pyannote.audio的管道工作流程遵循标准化的处理步骤,以说话人日志化管道为例:
flowchart TD
A[原始音频输入] --> B[音频预处理]
B --> C[说话人分割]
C --> D[特征提取]
D --> E[说话人嵌入]
E --> F[聚类分析]
F --> G[结果后处理]
G --> H[说话人日志输出]
详细处理步骤
1. 音频预处理阶段
# 音频加载和预处理
audio = Audio(sample_rate=16000, mono="downmix")
waveform = audio(file)
2. 说话人分割处理
def get_segmentations(self, file, hook=None):
"""应用分割模型获取说话人活动区域"""
segmentations = self._segmentation(file, hook=hook)
return segmentations
分割模型输出的是一个三维张量,形状为 (num_chunks, num_frames, num_speakers),表示每个时间块中每个说话人的活动概率。
3. 说话人嵌入提取
def get_embeddings(self, file, binary_segmentations, exclude_overlap=False):
"""为每个(块,说话人)对提取嵌入向量"""
embeddings = []
for chunk_idx in range(binary_segmentations.shape[0]):
# 提取当前块的说话人嵌入
chunk_embeddings = self._embedding.extract(file, binary_segmentations[chunk_idx])
embeddings.append(chunk_embeddings)
return np.stack(embeddings)
4. 聚类分析阶段
def apply_clustering(self, embeddings, segmentations):
"""应用聚类算法识别不同的说话人"""
clusters = self.clustering(
embeddings=embeddings,
segmentations=segmentations,
num_clusters=self.num_speakers
)
return clusters
管道配置与参数优化
pyannote.audio管道支持灵活的配置系统,允许用户自定义各个组件的参数:
| 参数类别 | 配置选项 | 默认值 | 描述 |
|---|---|---|---|
| 分割参数 | segmentation.threshold | 0.5 | 说话人活动检测阈值 |
| 分割参数 | segmentation.min_duration_off | 0.1 | 最小静音持续时间 |
| 嵌入参数 | embedding_batch_size | 1 | 嵌入提取批处理大小 |
| 聚类参数 | clustering.method | AgglomerativeClustering | 聚类算法选择 |
| 聚类参数 | clustering.metric | cosine | 距离度量方法 |
# 管道参数配置示例
pipeline = Pipeline.from_pretrained("pyannote/speaker-diarization-3.1")
pipeline.instantiate({
"segmentation.threshold": 0.58,
"segmentation.min_duration_off": 0.097,
"clustering.method": "AgglomerativeClustering",
"clustering.metric": "cosine"
})
批处理与性能优化
管道系统支持批处理操作以提高处理效率:
# 批处理配置
pipeline.segmentation_batch_size = 4
pipeline.embedding_batch_size = 8
# GPU加速
pipeline.to(torch.device("cuda"))
钩子机制与进度监控
管道系统提供了钩子机制,允许用户监控处理进度和中间结果:
def progress_hook(step_name, step_artifact, file=None, total=None, completed=None):
"""处理进度监控钩子"""
print(f"步骤 {step_name}: {completed}/{total} 完成")
# 应用管道时使用钩子
diarization = pipeline("audio.wav", hook=progress_hook)
错误处理与健壮性
管道系统内置了完善的错误处理机制:
try:
result = pipeline(audio_file)
except AudioProcessingError as e:
print(f"音频处理错误: {e}")
except ModelLoadingError as e:
print(f"模型加载错误: {e}")
except ClusteringError as e:
print(f"聚类错误: {e}")
扩展性与自定义管道
pyannote.audio支持用户自定义管道,通过继承基类Pipeline来实现特定需求的处理流程:
class CustomPipeline(Pipeline):
def __init__(self, custom_model, custom_params):
super().__init__()
self.custom_model = custom_model
self.custom_params = custom_params
def apply(self, file, **kwargs):
# 自定义处理逻辑
intermediate_result = self.custom_model(file)
final_result = self.post_process(intermediate_result)
return final_result
这种模块化的设计使得pyannote.audio管道系统既能够提供开箱即用的高性能解决方案,又能够满足特定应用场景的定制化需求。通过合理的参数配置和组件选择,用户可以在准确性和效率之间找到最佳平衡点。
多任务学习与模型规格定义
pyannote-audio框架在多任务学习方面采用了高度结构化的方法,通过统一的模型规格定义系统来支持复杂的音频处理任务。该系统不仅支持传统的单任务学习,还能够处理同时包含说话人分离、语音活动检测和重叠语音检测的多任务场景。
模型规格定义体系
pyannote-audio使用Specifications数据类来统一描述各种音频处理任务的数学特性。这个定义体系包含了以下核心属性:
| 属性名称 | 数据类型 | 描述 |
|---|---|---|
problem |
Problem枚举 |
定义任务类型:二分类、多标签分类、表示学习等 |
resolution |
Resolution枚举 |
输出分辨率:帧级别或块级别 |
duration |
float |
音频块的最大持续时间(秒) |
min_duration |
Optional[float] |
音频块的最小持续时间(秒) |
warm_up |
Tuple[float, float] |
模型预热时间(左右边界) |
classes |
Optional[List[Text]] |
类别标签列表 |
powerset_max_classes |
Optional[int] |
Powerset最大类别数 |
permutation_invariant |
bool |
是否支持排列不变性 |
多任务学习架构
pyannote-audio的多任务学习架构基于统一的接口设计,允许模型同时处理多个相关任务。核心的多任务处理机制如下:
class Specifications:
# 多任务支持:可以接受单个或多个规格定义
def __iter__(self):
if isinstance(self.specifications, Specifications):
yield self.specifications
else:
yield from self.specifications
# 多任务映射工具函数
def map_with_specifications(specifications, func, *iterables):
"""根据规格定义执行多任务映射"""
if isinstance(specifications, Specifications):
return func(*iterables, specifications=specifications)
return tuple(func(*i, specifications=s) for s, *i in zip(specifications, *iterables))
Powerset多类别编码
对于说话人分离和重叠语音检测等复杂任务,pyannote-audio引入了Powerset编码机制来处理多说话人同时存在的场景:
graph TD
A[原始多标签空间] --> B[Powerset编码器]
B --> C[Powerset类别空间]
C --> D[模型预测]
D --> E[Powerset解码器]
E --> F[重构多标签空间]
subgraph Powerset处理流程
B --> C --> D --> E
end
Powerset编码的数学表达式为:
其中是原始类别数,是最大同时出现类别数。
多任务模型实现
pyannote-audio中的多任务模型通过统一的接口设计实现:
class MultiTaskModel(pl.LightningModule):
def __init__(self, specifications):
super().__init__()
# 支持单个或多个任务规格
self.specifications = specifications
def forward(self, waveforms):
# 多任务前向传播
if isinstance(self.specifications, tuple):
# 多任务分支处理
outputs = []
for spec in self.specifications:
task_output = self._forward_task(waveforms, spec)
outputs.append(task_output)
return tuple(outputs)
else:
# 单任务处理
return self._forward_task(waveforms, self.specifications)
任务间参数共享
在多任务学习中,pyannote-audio采用了灵活的参数共享策略:
flowchart TD
A[输入音频] --> B[共享特征提取器]
B --> C[任务特定分支1<br>说话人分离]
B --> D[任务特定分支2<br>语音活动检测]
B --> E[任务特定分支3<br>重叠语音检测]
C --> F[输出1: 分离语音]
D --> G[输出2: 活动检测]
E --> H[输出3: 重叠检测]
损失函数组合
对于多任务学习,框架支持灵活的损失函数组合:
def multi_task_loss(predictions, targets, specifications):
"""多任务损失函数组合"""
total_loss = 0.0
task_weights = {'separation': 0.5, 'vad': 0.3, 'osd': 0.2}
for task_name, pred, target, spec in zip(task_weights.keys(), predictions, targets, specifications):
if spec.problem == Problem.MULTI_LABEL_CLASSIFICATION:
loss = binary_cross_entropy(pred, target)
elif spec.problem == Problem.REPRESENTATION:
loss = cosine_similarity_loss(pred, target)
total_loss += task_weights[task_name] * loss
return total_loss
规格验证与兼容性
系统包含严格的规格验证机制,确保多任务配置的合理性:
def validate_specifications(specifications):
"""验证多任务规格的兼容性"""
if isinstance(specifications, tuple):
# 检查所有任务是否共享相同的持续时间
durations = {s.duration for s in specifications}
if len(durations) > 1:
raise ValueError("所有任务必须共享相同的最大持续时间")
# 检查最小持续时间一致性
min_durations = {s.min_duration for s in specifications}
if len(min_durations) > 1:
raise ValueError("所有任务必须共享相同的最小持续时间")
实际应用示例
以下是一个典型的多任务学习配置示例,同时处理说话人分离和语音活动检测:
# 定义说话人分离任务规格
separation_spec = Specifications(
problem=Problem.MULTI_LABEL_CLASSIFICATION,
resolution=Resolution.FRAME,
duration=5.0,
classes=['spk1', 'spk2', 'spk3'],
powerset_max_classes=2
)
# 定义语音活动检测任务规格
vad_spec = Specifications(
problem=Problem.BINARY_CLASSIFICATION,
resolution=Resolution.FRAME,
duration=5.0,
classes=['speech', 'non_speech']
)
# 创建多任务模型
multi_task_specs = (separation_spec, vad_spec)
model = MyMultiTaskModel(multi_task_specs)
# 训练多任务模型
trainer.fit(model, multi_task_dataloader)
性能优化策略
pyannote-audio在多任务学习中采用了多种性能优化策略:
- 梯度平衡:通过任务权重调整避免某个任务主导训练过程
- 特征共享:底层特征提取器在所有任务间共享,减少参数数量
- 动态调度:根据任务难度动态调整学习率和损失权重
- 记忆效率:使用Powerset编码减少多标签分类的内存占用
这种多任务学习架构使得pyannote-audio能够高效地处理复杂的音频分析场景,在保持模型性能的同时显著减少了计算资源和训练时间的需求。
pyannote.audio框架通过其精心设计的核心架构,为音频处理任务提供了完整的解决方案。从底层的音频处理模块支持多种格式的音频读取和预处理,到核心的深度学习模型架构支持多任务学习和统一规格定义,再到高效的推理引擎优化计算性能,最后通过灵活的管道系统整合各个组件形成完整工作流程。该框架的模块化设计、多任务支持能力和性能优化策略使其能够高效处理复杂的音频分析场景,在保持准确性的同时提供了良好的扩展性和可维护性,为研究人员和开发者提供了强大的音频处理工具。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin07
compass-metrics-modelMetrics model project for the OSS CompassPython00