CVAT项目SDK扩展:如何添加自定义API方法
前言
在使用计算机视觉标注工具CVAT时,开发者经常需要扩展其SDK功能以满足特定业务需求。本文将详细介绍如何在CVAT SDK中添加自定义API方法,实现与后端新增接口的交互。
问题背景
CVAT提供了完善的Python SDK用于与后端服务交互,但当我们需要调用自定义的后端接口时,默认的SDK可能无法满足需求。例如,当后端新增了一个用于更新项目的特定接口时,我们需要在SDK中添加对应的方法。
解决方案
1. 修改SDK源码
首先需要在CVAT SDK的core/proxies/project.py文件中添加新的方法。主要涉及两个类的修改:
ProjectsRepo类:添加一个用于检索项目并调用更新方法的新方法
def update_project_visionia(self, id: int):
project = self.retrieve(id)
return project.update_project_visionia()
Project类:添加实际执行API调用的方法
def update_project_visionia(self):
(_, response) = self._client.api_client.put(
f"/api/visionia/{self.id}/update-project/"
)
self.fetch() # 刷新项目数据
return response
2. 安装修改后的SDK
由于Python默认会使用已安装的包,我们需要先卸载原有的SDK,然后以开发模式安装修改后的版本:
pip uninstall cvat-sdk
cd /cvat/cvat-sdk
pip install -e .
这种开发模式安装会创建一个指向本地源码的链接,使得修改能够立即生效。
技术细节
后端接口设计
后端通常需要提供RESTful风格的接口,例如:
@action(detail=True, methods=['PUT'], url_path='update-project')
def update_project_visionia(self, request, pk=None):
# 实现具体的业务逻辑
pass
对应的URL配置:
path('api/visionia/<int:pk>/update-project/',
VisioniaViewSet.as_view({'put': 'update_project_visionia'}),
name='project_update'),
客户端调用
在客户端代码中,可以这样使用新添加的方法:
def update_project_visionia(self):
try:
with make_client(self.host, port=self.port,
credentials=(self.username, self.password)) as client:
project = client.projects.retrieve(self.id)
return project.update_project_visionia()
except exceptions.ApiException as e:
print(f'Exception on API call for update_project_visionia: {e}')
raise
注意事项
-
版本控制:修改SDK源码后,应当做好版本标记,避免与其他开发者或部署环境产生冲突。
-
错误处理:自定义方法应当包含完善的错误处理机制,特别是网络请求和响应解析部分。
-
文档更新:添加新方法后,应当同步更新项目文档,方便团队其他成员使用。
-
测试验证:新方法应当编写单元测试和集成测试,确保功能正常。
总结
通过本文介绍的方法,开发者可以灵活扩展CVAT SDK的功能,满足特定的业务需求。关键在于理解SDK的结构和工作原理,以及如何正确安装修改后的版本。这种扩展方式不仅适用于项目更新操作,也可以应用于其他各种自定义API接口的调用场景。
对于需要长期维护的项目,建议考虑将这些自定义方法封装为独立的扩展模块,而不是直接修改SDK源码,这样可以更方便地进行版本管理和升级。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00