Serilog.AspNetCore 使用教程
1. 项目介绍
Serilog.AspNetCore 是一个用于 ASP.NET Core 的 Serilog 集成库。它允许你将 ASP.NET Core 的日志消息通过 Serilog 进行路由,从而使你可以将 ASP.NET Core 的内部操作信息与应用程序事件一起写入相同的 Serilog 接收器(sinks)。通过这种方式,你可以更方便地管理和分析应用程序的日志信息。
2. 项目快速启动
安装 Serilog.AspNetCore
首先,你需要在你的 ASP.NET Core 项目中安装 Serilog.AspNetCore NuGet 包。你可以使用以下命令进行安装:
dotnet add package Serilog.AspNetCore
配置 Serilog
在你的应用程序的 Program.cs 文件中,配置 Serilog 并将其集成到 ASP.NET Core 的日志系统中。以下是一个简单的配置示例:
using Serilog;
try
{
Log.Logger = new LoggerConfiguration()
.WriteTo.Console()
.CreateLogger();
Log.Information("Starting web application");
var builder = WebApplication.CreateBuilder(args);
// 添加 Serilog 到服务配置
builder.Services.AddSerilog();
var app = builder.Build();
app.MapGet("/", () => "Hello World!");
app.Run();
}
catch (Exception ex)
{
Log.Fatal(ex, "Application terminated unexpectedly");
}
finally
{
Log.CloseAndFlush();
}
清理默认日志配置
为了确保所有日志消息都通过 Serilog 进行处理,你需要清理默认的日志配置。移除 appsettings.json 文件中的 "Logging" 部分,或者将其替换为 Serilog 的配置。
3. 应用案例和最佳实践
请求日志记录
Serilog.AspNetCore 提供了智能的 HTTP 请求日志记录功能。默认情况下,ASP.NET Core 的请求日志记录会产生多个事件,而 Serilog 的中间件可以将这些事件浓缩为一个包含请求方法、路径、状态码和时间信息的事件。
要启用此功能,请在 Program.cs 中添加以下代码:
var app = builder.Build();
app.UseSerilogRequestLogging();
// 其他应用配置
自定义日志模板
你可以通过配置 UseSerilogRequestLogging 的选项来修改请求完成事件的消息模板、添加额外属性或更改事件级别。例如:
app.UseSerilogRequestLogging(options =>
{
options.MessageTemplate = "Handled {RequestPath}";
options.GetLevel = (httpContext, elapsed, ex) => LogEventLevel.Debug;
options.EnrichDiagnosticContext = (diagnosticContext, httpContext) =>
{
diagnosticContext.Set("RequestHost", httpContext.Request.Host.Value);
diagnosticContext.Set("RequestScheme", httpContext.Request.Scheme);
};
});
4. 典型生态项目
Serilog
Serilog 是一个简单且功能强大的 .NET 日志库,支持结构化日志记录。它提供了多种接收器(sinks),可以将日志消息输出到控制台、文件、数据库等多种目标。
Serilog.Sinks.Console
Serilog.Sinks.Console 是一个 Serilog 的接收器,用于将日志消息输出到控制台。它支持丰富的格式化选项,适合开发和调试阶段使用。
Serilog.Sinks.File
Serilog.Sinks.File 是一个 Serilog 的接收器,用于将日志消息写入文件。它支持日志文件的滚动和压缩,适合生产环境使用。
通过这些生态项目,你可以构建一个完整的日志记录系统,满足不同环境下的需求。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00