Open edX DevStack 使用教程
1. 项目介绍
Open edX DevStack 是一个用于快速启动和开发 Open edX 服务的工具。它提供了一系列脚本和配置文件,帮助开发者快速搭建一个完整的 Open edX 开发环境。DevStack 主要用于开发和扩展 Open edX 服务,支持从源代码快速部署 Open edX 云环境。
2. 项目快速启动
2.1 环境准备
在开始之前,确保你的系统满足以下要求:
- 操作系统:Linux(推荐 Ubuntu)
- Docker 和 Docker Compose 已安装
- Git 已安装
2.2 克隆项目
首先,克隆 DevStack 项目到本地:
git clone https://github.com/openedx/devstack.git
cd devstack
2.3 启动 DevStack
使用以下命令启动 DevStack:
make dev.up
这个命令会启动所有必要的容器,并配置 Open edX 环境。
2.4 访问 Open edX
启动完成后,你可以通过以下地址访问 Open edX:
- LMS(学习管理系统): http://localhost:18000
- Studio(课程创作工具): http://localhost:18010
3. 应用案例和最佳实践
3.1 开发新功能
DevStack 是开发新功能和扩展 Open edX 服务的理想工具。开发者可以在本地环境中快速测试和调试代码,而无需担心影响生产环境。
3.2 测试和调试
DevStack 提供了一个完整的 Open edX 环境,开发者可以在此环境中进行各种测试和调试工作。例如,测试新开发的插件或模块,调试已有的功能等。
3.3 学习 Open edX
对于新接触 Open edX 的开发者,DevStack 提供了一个快速入门的环境。通过在本地搭建 Open edX 环境,开发者可以更好地理解 Open edX 的架构和功能。
4. 典型生态项目
4.1 Tutor
Tutor 是另一个用于部署和管理 Open edX 的工具,它提供了更简单的部署方式和更丰富的功能。对于生产环境的部署,推荐使用 Tutor。
4.2 Open edX Platform
Open edX Platform 是 Open edX 的核心项目,包含了 LMS 和 Studio 等核心组件。DevStack 是基于 Open edX Platform 构建的,因此开发者可以通过 DevStack 深入了解 Open edX Platform 的内部机制。
4.3 Open edX Mobile
Open edX Mobile 是 Open edX 的移动端应用,支持在移动设备上访问 Open edX 课程。开发者可以通过 DevStack 搭建的本地环境,测试和开发 Open edX Mobile 的功能。
通过以上内容,你可以快速上手 Open edX DevStack,并开始开发和扩展 Open edX 服务。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C091
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00