Apify CLI 安装与基础使用指南
什么是Apify CLI
Apify CLI是一个命令行工具,它为开发者提供了与Apify平台交互的能力。通过这个工具,开发者可以在本地创建、运行、测试和部署Apify Actors(自动化任务)。CLI工具简化了Actor的开发流程,使得从本地开发到云端部署的过程更加顺畅。
安装前准备
在安装Apify CLI之前,请确保您的系统满足以下要求:
- 对于所有平台:Node.js 18或更高版本
- 对于macOS/Linux用户:可选Homebrew包管理器
- 管理员权限(对于全局NPM安装)
安装方法详解
方法一:通过Homebrew安装(推荐macOS/Linux用户)
Homebrew是macOS和Linux上的流行包管理器,使用它可以简化安装过程:
brew install apify-cli
这种方法的优势在于:
- 自动处理依赖关系
- 便于后续更新
- 不需要Node.js环境预配置
方法二:通过NPM安装(全平台支持)
如果您已经安装了Node.js环境,可以使用NPM进行安装:
npm -g install apify-cli
安装后验证版本:
apify --version
若遇到权限问题,有以下解决方案:
- 使用sudo前缀(不推荐)
- 更改NPM全局安装目录权限
- 使用Node版本管理器(nvm)
使用nvm的推荐安装方式
对于开发者,推荐使用nvm管理Node.js版本:
nvm install 18
nvm use 18
npm -g install apify-cli
这种方式的好处是:
- 不需要root权限
- 可以隔离不同项目的Node.js环境
- 便于版本管理
基础使用教程
1. 创建新Actor项目
apify create my-first-actor
执行此命令后:
- CLI会提示选择项目模板
- 创建包含基础结构的项目目录
- 自动初始化Actor配置文件
2. 初始化现有项目
对于已有项目,只需在项目目录中运行:
apify init
这会创建必要的Actor配置文件(.actor/actor.json)和存储目录(apify_storage)。
3. 本地运行Actor
cd my-first-actor
apify run
运行前请确保package.json中已配置正确的启动脚本:
{
"scripts": {
"start": "node main.js"
}
}
4. 登录Apify平台
apify login
登录后,CLI会将API令牌安全地存储在~/.apify目录中。
5. 部署Actor到云端
apify push
此命令会:
- 上传项目代码
- 在云端构建Actor
- 准备运行环境
6. 在云端运行Actor
apify call
或者运行特定Actor:
apify call apify/hello-world
配置文件详解
.actor/actor.json是Actor的核心配置文件,主要包含:
{
"actorSpecification": 1,
"name": "your-actor-name",
"version": "0.1",
"buildTag": "latest",
"environmentVariables": {},
"dockerfile": "./Dockerfile",
"readme": "./README.md",
"input": "./input_schema.json",
"storages": {
"dataset": "./dataset_schema.json"
}
}
关键配置项说明:
- Docker配置:指定构建使用的Dockerfile路径
- 文档说明:设置README文件位置
- 输入模式:定义Actor的输入参数结构
- 数据集模式:规范输出数据的格式
最佳实践建议
-
开发流程建议:
- 先在本地测试(apify run)
- 再推送到云端(apify push)
- 最后在云端运行(apify call)
-
版本控制:
- 将.actor/actor.json纳入版本控制
- 敏感信息使用环境变量
- 定期更新buildTag
-
调试技巧:
- 使用--verbose参数获取详细日志
- 本地测试时使用mock数据
- 利用apify_storage目录检查运行结果
常见问题解答
Q: 安装时出现权限错误怎么办? A: 推荐使用nvm或配置NPM全局安装目录权限,而非使用sudo。
Q: 如何更新Apify CLI? A: 通过NPM更新:npm -g update apify-cli
Q: 项目从apify.json迁移到.actor/actor.json需要注意什么? A: 主要注意路径变更,功能上基本保持一致,详情参考迁移文档。
通过本指南,您应该已经掌握了Apify CLI的安装和基本使用方法。接下来可以开始开发您的第一个Apify Actor了!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00