ngneat/spectator 对 Angular 17.1 输入信号的支持解析
背景介绍
随着 Angular 17.1 的发布,引入了输入信号(input signals)这一新特性。输入信号是 Angular 信号(signals)系统的一部分,为组件输入提供了更强大的类型安全和响应式能力。然而,这一新特性最初并未得到测试工具 ngneat/spectator 的完全支持,这促使社区贡献者开始研究如何实现这一功能。
输入信号的基本概念
在 Angular 17.1 中,输入信号允许开发者以声明式的方式定义组件输入:
@Component({
selector: 'app-signal-input',
template: `
@if(show()) {
<div id="text">Hello</div>
}
`,
standalone: true,
})
export class SignalInputComponent {
public show = input(false);
}
这种新语法相比传统的 @Input() 装饰器,提供了更好的类型推断和响应式能力。
测试挑战
在测试环境中,使用 ngneat/spectator 测试这样的组件时遇到了两个主要问题:
-
类型推断问题:当尝试通过 props 设置输入值时,TypeScript 会报类型不匹配的错误,因为测试工具无法正确识别输入信号的类型。
-
值设置机制:传统的通过直接赋值设置输入值的方式不适用于输入信号,需要采用 Angular 提供的专用 API。
解决方案实现
类型推断改进
通过创建专门的类型工具,可以正确推断输入信号的类型:
export type InferSignalInputs<C> = {
[P in keyof C]+?: C[P] extends InputSignal<infer T> ? T : C[P];
};
这个类型工具能够识别输入信号并提取其内部类型,使测试代码能够像处理普通输入一样处理信号输入。
值设置机制改进
对于值设置,解决方案是使用 Angular 提供的 ComponentRef.setInput() 方法,这是 Angular 为输入信号设计的专用 API。这种方法比直接赋值更符合 Angular 的运行机制,也更能保证测试的准确性。
测试工厂的调整
对于 createHost 和 createDirective 工厂函数,由于它们测试的是子组件/指令,无法直接获取到被测试组件的 ComponentRef,这带来了额外的挑战。经过讨论,决定:
- 移除
setProps方法在这些工厂中的使用 - 强制开发者通过模板设置输入值
- 保持 API 的一致性和简洁性
实际应用示例
现在,测试输入信号组件变得非常简单:
const spectator = createComponent({ props: { show: true } });
对于更复杂的情况,如带有转换器的输入信号:
public dashboardId = input.required<number, string>({ transform: numberAttribute });
测试工具也能够正确处理,确保转换逻辑在测试中得到验证。
总结
ngneat/spectator 对 Angular 输入信号的支持不仅解决了基本的测试需求,还通过以下方式提升了测试体验:
- 保持了与 Angular 运行时行为的一致性
- 提供了完善的类型支持
- 简化了测试 API,使其更加直观
- 支持各种输入信号的高级用法
这一改进使得开发者能够无缝地在项目中使用 Angular 最新的信号特性,同时保持高质量的测试覆盖率。随着 Angular 信号系统的不断完善,ngneat/spectator 也将持续跟进,为开发者提供最佳的测试体验。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00