async-book项目解析:深入理解select!宏的多Future并发处理
什么是select!宏
在异步编程中,select!宏是一个强大的工具,它允许开发者同时运行多个Future,并在任意一个Future完成时立即做出响应。这种机制特别适合需要同时处理多个异步操作的场景。
基本用法示例
让我们看一个简单的例子:
async fn example() {
let t1 = async_task_1().fuse();
let t2 = async_task_2().fuse();
pin_mut!(t1, t2);
select! {
_ = t1 => println!("任务1先完成"),
_ = t2 => println!("任务2先完成"),
}
}
在这个例子中,两个异步任务t1和t2会并发执行。当其中任意一个任务完成时,对应的处理分支就会被执行,然后整个函数结束,未完成的任务会被丢弃。
select!的核心语法
select!宏的基本语法结构如下:
<模式> = <表达式> => <处理代码>,
可以按照需要添加任意数量的分支。每个分支代表一个Future及其完成时的处理逻辑。
特殊分支:default和complete
select!提供了两个特殊的分支类型:
- default分支:当所有被监控的Future都未完成时执行
- complete分支:当所有被监控的Future都已完成时执行
loop {
select! {
_ = async_task1() => { /* 处理任务1完成 */ },
_ = async_task2() => { /* 处理任务2完成 */ },
complete => break, // 所有任务完成时退出循环
default => { /* 无任务完成时的处理 */ }
}
}
default分支使得select!可以立即返回,而complete分支特别适合在循环中使用,用于检测所有任务是否已完成。
Unpin和FusedFuture的必要性
使用select!时需要注意两个重要的trait:
- Unpin:因为
select!通过可变引用操作Future而非获取所有权,所以Future必须实现Unpin - FusedFuture:确保已完成Future不会被重复轮询
这就是为什么在第一个例子中我们需要调用.fuse()和pin_mut!的原因。这些调用确保了Future满足select!的要求。
FusedStream的应用
对于Stream,有一个对应的FusedStream trait。实现了这个trait的Stream(或通过.fuse()包装的Stream)会从它们的.next()/.try_next()组合器中产生FusedFuture。
let mut stream = some_stream.fuse();
select! {
Some(item) = stream.next() => { /* 处理流中的项 */ },
// 其他分支...
}
高级用法:Fuse和FuturesUnordered
使用Fuse::terminated()
Fuse::terminated()可以创建一个已终止的空Future,稍后可以填充需要运行的Future。这在需要在select!循环中动态创建任务时特别有用。
let future = Fuse::terminated();
loop {
select! {
_ = future => { /* 处理完成的future */ },
Some(new_item) = stream.next() => {
// 用新任务替换原来的future
future.set(async_task(new_item).fuse());
}
}
}
使用FuturesUnordered
当需要同时运行多个相同Future的实例时,FuturesUnordered类型非常有用。与select!不同,它会运行每个Future直到完成,而不是在新Future创建时中止之前的。
let mut futures = FuturesUnordered::new();
loop {
select! {
result = futures.select_next_some() => {
println!("获得结果: {:?}", result);
},
new_num = stream.next() => {
futures.push(run_on_new_num_fut(new_num));
}
}
}
实际应用场景
select!宏在以下场景特别有用:
- 同时等待多个网络请求,处理最先返回的结果
- 实现超时机制
- 构建响应式系统,同时监听多个事件源
- 在服务器中处理多个并发客户端请求
性能考虑
使用select!时需要注意:
- 每个分支的Future都会被轮询,因此分支数量会影响性能
- 对于大量并发任务,考虑使用
FuturesUnordered可能更高效 - 避免在
select!中放置计算密集型任务,这可能导致其他Future饥饿
总结
select!宏是Rust异步编程中处理多个并发Future的强大工具。通过合理使用select!及其相关功能(如Fuse和FuturesUnordered),开发者可以构建高效、响应式的异步应用程序。理解Unpin和FusedFuture的要求是正确使用select!的关键,而default和complete分支则为处理各种边界情况提供了便利。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00