在Next.js-Auth0项目中为Storybook添加Mock支持的最佳实践
背景介绍
随着Storybook 8.1版本的发布,开发者现在能够为使用Next.js App Router编写的页面组件创建Storybook故事。然而,当页面组件使用Next.js-Auth0库的withPageAuthRequired功能进行包装时,如何为这些认证相关的组件创建有效的Mock成为了一个技术挑战。
核心问题分析
在Next.js应用中集成Auth0认证时,我们通常会使用withPageAuthRequired高阶组件来保护页面。这个HOC会检查用户会话,如果未认证则重定向到登录页面。在Storybook环境中,我们需要模拟以下几种状态:
- 已认证用户状态(包含用户信息)
- 未认证用户状态
- 认证过程中的加载状态
解决方案探索
1. 使用generateSessionCookie辅助函数
Next.js-Auth0库提供了一个generateSessionCookie辅助函数,可以用来生成有效的会话cookie。这个函数在v3和v4版本中都可用,是创建Mock会话的理想选择。
import { generateSessionCookie } from '@auth0/nextjs-auth0/testing';
// 在Storybook的preview.js中配置全局Mock
export const decorators = [
(Story) => {
// 模拟已登录用户
document.cookie = generateSessionCookie({
user: {
name: 'Mock User',
email: 'mock@example.com'
}
});
return <Story />;
}
];
2. 创建自定义Mock模块
对于更复杂的场景,可以创建专门的Mock模块来模拟Next.js-Auth0的行为:
// __mocks__/@auth0/nextjs-auth0.ts
export const withPageAuthRequired = (Component) => {
return (props) => {
const [isLoading, setIsLoading] = useState(true);
const [user, setUser] = useState(null);
useEffect(() => {
// 模拟认证检查过程
setTimeout(() => {
setUser({
name: 'Mock User',
email: 'mock@example.com'
});
setIsLoading(false);
}, 500);
}, []);
if (isLoading) return <div>Loading...</div>;
if (!user) return <div>Redirecting to login...</div>;
return <Component user={user} {...props} />;
};
};
export const useUser = () => ({
user: {
name: 'Mock User',
email: 'mock@example.com'
},
isLoading: false,
error: null
});
3. 集成Storybook的模块Mock系统
Storybook 8.1+提供了强大的模块Mock功能,可以针对不同的Story模拟不同的认证状态:
// YourComponent.stories.tsx
import { withPageAuthRequired } from '@auth0/nextjs-auth0';
export default {
title: 'Components/ProtectedPage',
parameters: {
nextjs: {
appDirectory: true,
},
mock: {
'@auth0/nextjs-auth0': {
withPageAuthRequired: (Component) => (props) => (
<Component
user={{ name: 'Storybook User', email: 'storybook@example.com' }}
{...props}
/>
),
useUser: () => ({
user: { name: 'Storybook User', email: 'storybook@example.com' },
isLoading: false
})
}
}
}
};
export const LoggedIn = {
render: () => <YourProtectedComponent />
};
export const Loading = {
parameters: {
mock: {
'@auth0/nextjs-auth0': {
useUser: () => ({ isLoading: true, user: null })
}
}
},
render: () => <YourProtectedComponent />
};
最佳实践建议
-
分层Mock策略:根据测试需求,实现不同层级的Mock,从简单的cookie模拟到完整的认证流程模拟。
-
状态多样性:确保覆盖所有关键认证状态:已认证、未认证、加载中、认证错误等。
-
类型安全:使用TypeScript确保Mock数据与真实API返回的数据类型一致。
-
环境隔离:确保Mock只在Storybook环境中生效,不影响生产代码。
-
文档记录:为团队记录Mock的使用方法和约定,保持一致性。
高级技巧
对于需要测试复杂认证流程的场景,可以考虑:
- 动态Mock:根据Story的参数动态生成不同的用户角色和权限。
export const AdminView = {
parameters: {
mock: {
'@auth0/nextjs-auth0': {
useUser: () => ({
user: {
name: 'Admin User',
email: 'admin@example.com',
role: 'admin'
}
})
}
}
}
};
- 错误场景模拟:模拟认证失败等异常情况。
export const AuthError = {
parameters: {
mock: {
'@auth0/nextjs-auth0': {
useUser: () => ({
error: new Error('Authentication failed'),
isLoading: false,
user: null
})
}
}
}
};
- 与MSW集成:结合Mock Service Worker模拟完整的API认证流程。
总结
为Next.js-Auth0项目中的认证组件创建Storybook Mock需要考虑多方面因素,从简单的cookie模拟到完整的认证流程再现。通过合理利用Next.js-Auth0提供的测试工具和Storybook的Mock系统,开发者可以构建出真实反映各种认证状态的组件故事,大大提高UI开发的效率和质量。
记住,良好的Mock设计应该使组件在不同认证状态下的行为一目了然,同时保持与生产环境行为的一致性。随着Storybook和Next.js-Auth0的持续发展,这些技术方案也将不断演进,值得开发者持续关注。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00