【亲测免费】 Obsidian Image Toolkit 项目下载及安装教程
1. 项目介绍
Obsidian Image Toolkit 是一个为 Obsidian 笔记软件开发的插件,旨在提供一些图像查看工具。通过该插件,用户可以点击图像后进行预览、缩放、移动、旋转、翻转、反色和复制图像等操作。该插件支持两种模式:普通模式和固定模式,用户可以根据需要选择不同的模式进行图像查看。
2. 项目下载位置
Obsidian Image Toolkit 项目的源代码托管在 GitHub 上。用户可以通过以下步骤下载项目:
-
打开终端或命令行工具。
-
使用
git clone命令下载项目:git clone https://github.com/sissilab/obsidian-image-toolkit.git下载完成后,项目文件将保存在当前目录下的
obsidian-image-toolkit文件夹中。
3. 项目安装环境配置
3.1 环境要求
- 操作系统:Windows、macOS、Linux
- Obsidian 版本:0.10.0 及以上
- Node.js:12.x 及以上
- npm:6.x 及以上
3.2 环境配置步骤
-
安装 Node.js 和 npm:
访问 Node.js 官网 下载并安装 Node.js。安装完成后,npm 会自动安装。

-
验证安装:
打开终端或命令行工具,输入以下命令验证 Node.js 和 npm 是否安装成功:
node -v npm -v如果显示版本号,则表示安装成功。

4. 项目安装方式
4.1 通过 Obsidian 社区插件安装
-
打开 Obsidian 软件,进入设置页面。
-
在左侧菜单中选择“社区插件”。
-
关闭“安全模式”。
-
点击“浏览”按钮,搜索“Image Toolkit”。
-
找到插件后,点击“安装”按钮。
-
安装完成后,关闭插件浏览窗口,回到社区插件页面,激活新安装的插件。

4.2 手动安装
-
下载项目的最新发布版本。
-
解压下载的压缩包,找到
obsidian-image-toolkit文件夹。 -
将
obsidian-image-toolkit文件夹复制到 Obsidian 的插件目录中:<vault>/.obsidian/plugins/(注意:
.obsidian文件夹可能是隐藏的,需要先显示隐藏文件夹) -
打开 Obsidian 设置页面,进入“社区插件”,点击“重新加载插件列表”。
-
找到并激活新安装的插件。

5. 项目处理脚本
Obsidian Image Toolkit 项目包含一些处理脚本,用于构建和打包插件。以下是常用的处理脚本:
-
安装依赖:
npm install -
构建插件:
npm run build -
打包插件:
npm run package
通过这些脚本,开发者可以方便地进行插件的开发和打包。
以上是 Obsidian Image Toolkit 项目的下载及安装教程。希望这篇文章能帮助你顺利安装和使用该插件。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust069- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00