【免费下载】 iLogtail快速入门指南:从零开始采集主机日志
2026-02-04 05:19:13作者:凤尚柏Louis
什么是iLogtail
iLogtail是一款轻量级、高性能的日志采集工具,由阿里巴巴开源并广泛应用于大规模日志采集场景。它具有资源占用低、配置灵活、扩展性强等特点,特别适合在服务器、容器等环境中进行日志采集和处理。
环境准备
在开始之前,请确保您的系统满足以下基本要求:
- Linux操作系统(推荐使用主流发行版)
- 基本的命令行操作权限
- 网络连接正常
安装iLogtail
- 首先下载预编译的iLogtail包:
wget https://loongcollector-community-edition.oss-cn-shanghai.aliyuncs.com/0.2.0/loongcollector-0.2.0.linux-amd64.tar.gz
- 解压下载的压缩包:
tar -xzvf loongcollector-0.2.0.linux-amd64.tar.gz
- 进入解压后的目录:
cd loongcollector-0.2.0
配置iLogtail
iLogtail的配置分为系统参数配置和采集配置两部分:
-
系统参数配置:位于
conf/instance_config/local/loongcollector_config.json,用于设置iLogtail运行时的全局参数。 -
采集配置:位于
conf/continuous_pipeline_config/local目录下,每个YAML文件代表一个独立的采集任务。
下面我们创建一个简单的采集配置示例file_simple.yaml:
enable: true
inputs:
- Type: input_file # 指定输入类型为文件
FilePaths:
- ./simple.log # 指定要采集的日志文件路径
flushers:
- Type: flusher_stdout # 指定输出类型为标准输出
OnlyStdout: true # 仅输出到标准输出
这个配置表示:
- 采集当前目录下的
simple.log文件 - 将采集到的日志内容输出到标准输出
启动iLogtail服务
使用以下命令在后台启动iLogtail:
nohup ./loongcollector > stdout.log 2> stderr.log &
这个命令做了以下几件事:
- 使用
nohup确保进程在终端关闭后继续运行 - 将标准输出重定向到
stdout.log文件 - 将错误输出重定向到
stderr.log文件 &符号表示在后台运行
测试日志采集
- 首先创建一个测试日志文件:
echo 'Hello, iLogtail!' >> simple.log
- 查看采集结果:
cat stdout.log
您应该能看到类似以下的输出:
2024-12-05 15:50:29 {"__tag__:__path__":"./simple.log","content":"Hello, iLogtail!","__time__":"1733385029"}
这个输出表明:
- 日志被成功采集
- 包含了原始内容"Hello, iLogtail!"
- 自动添加了文件路径和时间戳等元信息
理解采集结果
iLogtail的输出采用结构化格式,包含以下关键字段:
__tag__:__path__:记录日志来源文件路径content:原始日志内容__time__:日志采集时间戳(UNIX时间戳格式)
这种结构化输出便于后续的日志处理和解析。
进阶配置建议
当您熟悉了基本采集流程后,可以考虑以下进阶配置:
- 多文件采集:在
FilePaths下添加多个文件路径或使用通配符 - 日志过滤:添加
processors部分对日志进行过滤或处理 - 多种输出:配置输出到文件、远程服务器或其他存储系统
- 日志解析:使用正则表达式或分隔符解析非结构化日志
常见问题排查
-
日志未被采集:
- 检查配置文件路径是否正确
- 确认配置文件中的
enable设置为true - 查看
stderr.log中的错误信息
-
输出不符合预期:
- 检查采集配置中的输出类型设置
- 确认输出目标是否有写入权限
-
性能问题:
- 检查系统资源使用情况
- 考虑调整采集批次大小或间隔
总结
通过本指南,您已经完成了iLogtail的基本安装、配置和测试。iLogtail的强大之处在于其灵活的配置能力和丰富的功能扩展,后续您可以探索更多高级功能来满足不同的日志采集需求。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
568
3.84 K
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
暂无简介
Dart
801
199
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
781
喝着茶写代码!最易用的自托管一站式代码托管平台,包含Git托管,代码审查,团队协作,软件包和CI/CD。
Go
24
0
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
349
202
Ascend Extension for PyTorch
Python
379
452
无需学习 Kubernetes 的容器平台,在 Kubernetes 上构建、部署、组装和管理应用,无需 K8s 专业知识,全流程图形化管理
Go
16
1