Midscene.js:AI驱动的浏览器自动化引擎——如何让自然语言成为界面操作的通用指令?
Midscene.js是一款开源的浏览器自动化工具,它创新性地将人工智能技术与界面操作相结合,允许用户通过自然语言描述任务目标,自动生成并执行浏览器操作流程。该工具广泛适用于自动化测试、数据采集、批量操作等场景,尤其在需要快速实现复杂交互逻辑的场景中展现出显著优势。
核心功能解析
自然语言驱动的界面操作
Midscene.js的核心竞争力在于其自然语言理解引擎,该引擎能够将用户输入的任务描述(如"在电商网站搜索耳机并提取价格信息")转化为可执行的浏览器操作序列。与传统自动化工具相比,它无需用户编写复杂的选择器或路径表达式,极大降低了技术门槛。

图1:Playground环境展示了自然语言指令与浏览器操作的实时映射关系,左侧为指令输入区,右侧为操作预览窗口
多模态交互模式
该工具支持三种主要交互模式:
- Action模式:执行点击、输入、滚动等界面操作
- Query模式:提取页面元素属性、文本内容等信息
- Assert模式:验证页面状态或数据是否符合预期
这种模块化设计允许用户根据任务需求灵活组合不同操作类型,构建完整的自动化流程。
可视化执行报告
系统会自动记录每一步操作的执行过程,并生成包含时间轴、截图对比和状态日志的可视化报告。这一功能显著提升了自动化流程的可调试性,帮助用户快速定位执行异常。

图2:动态展示的执行报告,包含操作时间轴、页面截图和状态验证结果
快速上手指南
环境准备
确保系统已安装Node.js(建议v16+版本),然后通过以下步骤部署开发环境:
-
克隆项目代码库
git clone https://gitcode.com/GitHub_Trending/mid/midscene -
安装项目依赖
cd midscene npm install -
启动开发服务器
npm start
基础操作流程
以下为使用Midscene.js完成"电商网站商品搜索"任务的标准流程:
- 启动Playground:访问http://localhost:3000进入交互界面
- 选择操作类型:在左侧面板切换至"Action"模式
- 输入任务指令:在Prompt框中输入"点击搜索框并输入'无线耳机'"
- 执行并观察结果:点击"Run"按钮,右侧窗口将实时展示执行过程
- 查看执行报告:操作完成后自动生成详细报告,可通过"Export"按钮保存
高级使用技巧
- 指令优化:使用更精确的描述(如"点击页面顶部中央的搜索框")可提高识别准确率
- 多步骤组合:通过分号分隔多个指令(如"输入关键词;点击搜索按钮;等待结果加载")
- 参数配置:在设置面板调整执行速度、超时时间等参数适应不同网站特性
应用场景与实践案例
自动化测试场景
传统的UI自动化测试通常需要编写大量定位代码,而Midscene.js允许测试人员使用自然语言描述测试用例。例如:
传统方式(Playwright示例):
await page.click('input[name="q"]');
await page.fill('input[name="q"]', 'midscene');
await page.click('button[type="submit"]');
Midscene.js方式:
agent.aiAction('在搜索框输入"midscene"并提交搜索');
这种方式将测试用例的维护成本降低60%以上,同时提高了用例的可读性。
数据采集应用
某电商数据分析团队使用Midscene.js实现了竞品价格监控系统,核心流程包括:
- 每日定时启动采集任务
- 访问目标电商平台搜索特定品类
- 提取商品名称、价格、销量等信息
- 生成对比分析报告
通过自然语言定义采集规则,团队将新商品类别的配置时间从2小时缩短至15分钟。
混合控制模式
Midscene.js的桥接模式(Bridge Mode)支持脚本控制与人工操作的无缝切换,特别适用于需要处理验证码或复杂人机交互的场景。

图3:桥接模式允许本地SDK控制浏览器实例,实现自动化脚本与人工操作的协同
技术架构与扩展能力
核心技术栈
- 前端框架:React + TypeScript构建用户界面
- AI模型:支持UI-TARS、Qwen2.5-VL等视觉语言模型
- 自动化引擎:集成Playwright/Puppeteer作为底层执行器
- 数据存储:IndexedDB用于本地缓存与状态管理
生态系统集成
Midscene.js提供多种扩展方式:
- Chrome扩展:无需编码即可在浏览器中使用核心功能
- CLI工具:通过命令行执行自动化脚本
- SDK开发:提供JavaScript API供第三方系统集成
- 模型扩展:支持自定义AI模型接入
性能优化建议
- 对于复杂页面,建议启用缓存机制减少重复渲染
- 使用无头模式(Headless)提升执行速度
- 对高频操作场景,可预定义操作模板提高效率
常见问题与解决方案
识别准确率问题
- 现象:AI偶尔无法准确定位目标元素
- 解决方案:提供更具体的上下文描述,如"点击页面右上角的购物车图标(红色背景白色购物车图案)"
执行稳定性问题
- 现象:动态加载内容导致操作超时
- 解决方案:在指令中增加等待条件,如"等待商品列表加载完成后再提取价格"
环境兼容性问题
- 现象:部分网站对自动化工具有限制
- 解决方案:使用桥接模式结合真实浏览器环境执行操作
总结与展望
Midscene.js通过自然语言界面操作这一创新点,重新定义了浏览器自动化工具的使用方式。其核心价值在于:
- 降低技术门槛:让非开发人员也能创建复杂的自动化流程
- 提高开发效率:将自动化脚本开发周期缩短70%以上
- 增强可维护性:自然语言描述比代码更易于理解和维护
随着AI视觉理解能力的不断提升,Midscene.js有望在以下方向进一步发展:
- 多模态指令支持(语音、截图、视频)
- 跨平台扩展(移动设备、桌面应用)
- 智能错误修复与流程优化
无论是自动化测试工程师、数据分析师还是业务运营人员,都能通过Midscene.js将重复的界面操作转化为简单的自然语言指令,从而专注于更具创造性的工作。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust050
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
ERNIE-ImageERNIE-Image 是由百度 ERNIE-Image 团队开发的开源文本到图像生成模型。它基于单流扩散 Transformer(DiT)构建,并配备了轻量级的提示增强器,可将用户的简短输入扩展为更丰富的结构化描述。凭借仅 80 亿的 DiT 参数,它在开源文本到图像模型中达到了最先进的性能。该模型的设计不仅追求强大的视觉质量,还注重实际生成场景中的可控性,在这些场景中,准确的内容呈现与美观同等重要。特别是,ERNIE-Image 在复杂指令遵循、文本渲染和结构化图像生成方面表现出色,使其非常适合商业海报、漫画、多格布局以及其他需要兼具视觉质量和精确控制的内容创作任务。它还支持广泛的视觉风格,包括写实摄影、设计导向图像以及更多风格化的美学输出。Jinja00