三步搭建本地AI工作站:从安装到应用的完整指南
在数据隐私日益受到重视的今天,越来越多的用户希望在本地环境中运行AI模型,避免敏感数据上传至云端。AI Runner作为一款开源的本地AI工作站,整合了文本生成、图像创作和语音交互等多种功能,让你能够在自己的硬件上完全离线地使用先进AI技术。本文将通过三个核心步骤,帮助你从零开始搭建属于自己的本地AI工作站,无需专业知识也能轻松上手。
一、系统环境准备:确保硬件与软件兼容
在开始安装AI Runner之前,首先需要确保你的系统满足基本运行要求。这款工具对硬件有一定要求,特别是图形处理器(GPU)的性能直接影响AI模型的运行速度和效果。
最低配置要求
- 操作系统:Ubuntu 22.04或Windows 10
- 处理器:Ryzen 2700K或Intel Core i7-8700K
- 内存:16 GB RAM
- 显卡:NVIDIA RTX 3060或更高
- 存储空间:至少22 GB(含基础模型)
推荐配置建议
如果条件允许,推荐使用更高配置以获得更佳体验:
- 处理器:Ryzen 5800X或Intel Core i7-11700K
- 内存:32 GB RAM
- 显卡:NVIDIA RTX 4090
- 存储空间:100 GB以上(便于存储多种AI模型)
系统依赖安装
在Ubuntu系统中,打开终端执行以下命令安装必要的系统组件:
# 更新系统并安装基础依赖
sudo apt update && sudo apt upgrade -y
sudo apt install -y make build-essential libssl-dev zlib1g-dev libbz2-dev
sudo apt install -y libreadline-dev libsqlite3-dev wget curl llvm
sudo apt install -y libncurses5-dev libncursesw5-dev xz-utils tk-dev
sudo apt install -y libffi-dev liblzma-dev python3-openssl git
sudo apt install -y nvidia-cuda-toolkit pipewire libportaudio2 libxcb-cursor0
sudo apt install -y gnupg gpg-agent pinentry-curses espeak xclip cmake
sudo apt install -y qt6-qpa-plugins qt6-wayland qt6-gtk-platformtheme
sudo apt install -y mecab libmecab-dev mecab-ipadic-utf8 libxslt-dev mkcert
这些依赖包涵盖了从编译工具到图形界面支持的各个方面,确保AI Runner能够正常运行。
二、核心组件安装:从源码到应用的转化
完成系统环境准备后,接下来需要安装AI Runner的核心组件。我们将从获取源代码开始,逐步完成安装配置。
1. 获取项目源码
首先克隆AI Runner的代码仓库到本地:
# 克隆项目仓库
git clone https://gitcode.com/GitHub_Trending/ai/airunner
cd airunner
2. 创建数据存储目录
为AI Runner创建专用的数据存储目录,用于存放模型文件和用户数据:
# 创建数据目录并设置权限
mkdir -p ~/.local/share/airunner
chown $USER:$USER ~/.local/share/airunner
3. 安装Python依赖
AI Runner基于Python开发,需要安装特定版本的依赖包。使用pip命令安装所需的Python库:
# 安装特定版本的typing-extensions
pip install "typing-extensions==4.13.2"
# 安装PyTorch(支持CUDA 12.8)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128
# 安装AI Runner及其开发依赖
pip install .[all_dev]
4. 验证安装
安装完成后,可以通过以下命令验证是否安装成功:
# 检查AI Runner版本
airunner --version
如果一切正常,将显示当前安装的AI Runner版本号。
三、启动与基础使用:探索AI工作站功能
安装完成后,我们可以启动AI Runner并开始探索其强大功能。首次启动时,系统会自动下载必要的基础模型,这个过程可能需要一些时间,具体取决于你的网络速度。
启动应用程序
在终端中执行以下命令启动AI Runner:
# 启动AI Runner应用
airunner
首次启动时,你将看到应用的启动界面,展示了AI Runner的标志性霓虹风格logo。
探索图像生成功能
AI Runner的核心功能之一是图像生成。通过直观的界面,你可以轻松创建各种风格的图像。以下是基本操作步骤:
- 在左侧面板选择"Art"选项卡
- 输入图像描述文本(例如:"a black and white photo of a man smoking in the street")
- 调整右侧面板中的参数(如模型选择、采样器、步数等)
- 点击"Generate"按钮开始生成图像
这个界面展示了AI Runner的图像生成功能,左侧是提示词输入区域,中间是预览窗口,右侧是参数调节面板。你可以通过调整这些参数来控制生成图像的风格和质量。
常用命令工具
AI Runner提供了一系列命令行工具,方便你管理和维护应用:
# 下载模型和数据
airunner-setup
# 构建UI界面
airunner-build-ui
# 运行测试套件
airunner-tests
# 生成SSL证书
airunner-generate-cert
这些工具可以帮助你扩展AI Runner的功能,解决可能遇到的问题,并确保应用保持最佳状态。
核心功能与应用场景
AI Runner不仅仅是一个图像生成工具,它是一个完整的AI工作站,提供了多种功能来满足不同的需求:
智能对话系统
- 实时语音交互:支持三种语音引擎,实现自然的语音对话
- 多语言支持:自动检测输入语言,支持英语、日语、中文等多种语言
- 个性化设置:可调整AI代理的性格特点,适应不同的对话场景
图像创作与编辑
- 文本到图像:使用FLUX等先进模型生成高质量图像
- 专业编辑工具:提供丰富的绘图工具和图层管理功能
- 模型扩展:支持LoRA和嵌入式模型,扩展创作可能性
隐私与安全保障
- 完全本地运行:所有数据处理都在本地完成,无需上传至云端
- 可控网络访问:可限制应用的网络访问,进一步保护隐私
- 数据自主权:用户完全控制自己的创作内容和交互数据
优化与进阶技巧
为了获得最佳的使用体验,这里提供一些实用的优化建议:
硬件加速配置
确保NVIDIA驱动和CUDA工具包正确安装,以充分利用GPU加速:
# 检查CUDA版本
nvcc --version
# 检查NVIDIA驱动状态
nvidia-smi
模型管理策略
AI模型文件通常较大,建议采用以下管理策略:
- 只下载当前需要的模型
- 定期清理不再使用的模型
- 将模型存储在高速存储设备上(如NVMe SSD)
性能优化建议
- 对于大型语言模型,关闭其他占用内存的应用
- 调整图像生成参数(如降低分辨率)以加快生成速度
- 定期更新AI Runner到最新版本,获取性能改进
故障排除与支持
在使用过程中遇到问题时,可以尝试以下解决方法:
常见问题解决
- 启动失败:检查Python版本是否为3.13或更高,确保所有依赖已正确安装
- GPU不被识别:确认NVIDIA驱动已正确安装,重启系统后重试
- 模型下载失败:检查网络连接,或手动下载模型并放置到指定目录
获取帮助
如果遇到无法解决的问题,可以查阅项目文档或寻求社区支持:
- 项目文档:README.md
- 配置指南:deployment/systemd/README.md
通过以上三个步骤,你已经成功搭建了自己的本地AI工作站。AI Runner为你提供了一个安全、高效的AI应用平台,无论是进行创意设计、内容创作还是智能对话,都能在保护隐私的前提下享受先进AI技术带来的便利。随着项目的不断发展,更多强大的功能将被加入,持续关注更新以获取最佳体验。
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
ERNIE-ImageERNIE-Image 是由百度 ERNIE-Image 团队开发的开源文本到图像生成模型。它基于单流扩散 Transformer(DiT)构建,并配备了轻量级的提示增强器,可将用户的简短输入扩展为更丰富的结构化描述。凭借仅 80 亿的 DiT 参数,它在开源文本到图像模型中达到了最先进的性能。该模型的设计不仅追求强大的视觉质量,还注重实际生成场景中的可控性,在这些场景中,准确的内容呈现与美观同等重要。特别是,ERNIE-Image 在复杂指令遵循、文本渲染和结构化图像生成方面表现出色,使其非常适合商业海报、漫画、多格布局以及其他需要兼具视觉质量和精确控制的内容创作任务。它还支持广泛的视觉风格,包括写实摄影、设计导向图像以及更多风格化的美学输出。Jinja00

