HTMLifier 使用教程
项目介绍
HTMLifier 是一个开源项目,旨在将 Scratch 3.0 项目转换为 HTML 文件。通过将整个 Scratch 引擎和项目数据打包到一个巨大的 HTML 文件中,用户可以在任何支持 HTML 的浏览器中独立运行 Scratch 项目。HTMLifier 由 SheepTester 开发,项目托管在 GitHub 上,采用 MIT 许可证。
项目快速启动
安装与配置
-
克隆仓库:
git clone https://github.com/SheepTester/htmlifier.git cd htmlifier -
安装依赖:
deno run --allow-run --allow-read=src --allow-write=index bundle.min.js \ --allow-net=sheeptester.github.io bin/build.ts -
构建项目:
deno run --allow-run --allow-read=src --allow-write=index bundle.min.js \ --allow-net=sheeptester.github.io bin/build.ts --dev
使用 HTMLifier
-
上传 Scratch 项目: 访问 HTMLifier 的网页界面,上传你的 Scratch 项目文件(.sb3)。
-
生成 HTML 文件: 点击转换按钮,HTMLifier 将生成一个包含所有项目数据的 HTML 文件。
-
运行 HTML 文件: 下载生成的 HTML 文件,并在任何现代浏览器中打开它以运行你的 Scratch 项目。
应用案例和最佳实践
教育用途
HTMLifier 在教育领域非常有用,教师可以将 Scratch 项目转换为 HTML 文件,方便学生在任何设备上访问和学习,无需安装额外的软件。
项目展示
开发者可以使用 HTMLifier 将他们的 Scratch 项目转换为 HTML 文件,以便在网站或博客上展示,增加项目的可访问性和互动性。
离线运行
通过将 Scratch 项目转换为 HTML 文件,用户可以在没有网络连接的情况下运行项目,非常适合在没有互联网访问的环境中使用。
典型生态项目
TurboWarp
TurboWarp 是一个 Scratch 3.0 的改进版本,提供了更好的性能和更多的功能。它也可以将 Scratch 项目打包成可执行文件,是 HTMLifier 的一个很好的替代方案。
Forkphorus
Forkphorus 是另一个将 Scratch 项目转换为 JavaScript 的开源工具,它支持 Scratch 3.0 项目,并提供了一些额外的功能和优化。
Phosphorus
Phosphorus 是一个用于 Scratch 2.0 项目的在线运行时,它可以将 Scratch 项目转换为 JavaScript,并在浏览器中运行,适合需要快速运行 Scratch 项目的场景。
通过这些生态项目,用户可以根据自己的需求选择最适合的工具来转换和运行 Scratch 项目。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0105
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00