在wouter项目中实现Framer Motion的退出动画
本文将详细介绍如何在wouter路由库中结合Framer Motion实现流畅的页面过渡动画效果,特别是针对组件卸载时的退出动画。
问题背景
许多开发者在使用wouter作为路由解决方案时,希望为页面切换添加动画效果。Framer Motion是一个流行的React动画库,它提供了强大的动画功能,包括组件进入和退出时的动画效果。然而,在wouter中直接使用Framer Motion的AnimatePresence组件时,开发者可能会遇到退出动画不生效的问题。
核心原因分析
Framer Motion的AnimatePresence组件通过检测React树中直接子组件的移除来触发退出动画。而在wouter的标准用法中,Route组件作为AnimatePresence的直接子组件,实际页面内容则是Route的子组件。这种层级关系导致AnimatePresence无法正确感知页面内容的移除,从而无法触发退出动画。
解决方案
方案一:手动条件渲染
最直接的解决方案是绕过Route组件,直接根据路由匹配结果条件渲染内容:
function RouteAnimated() {
const [match] = useRoute("/");
return (
<AnimatePresence mode="wait">
{match && (
<motion.div
initial="in"
animate="stay"
exit="out"
variants={animateVariants}
transition={{ duration: 1 }}
>
{/* 页面内容 */}
</motion.div>
)}
</AnimatePresence>
);
}
这种方法简单直接,但需要手动管理每个路由的匹配状态。
方案二:实现useRoutes钩子
更优雅的解决方案是模拟React Router的useRoutes钩子,创建一个自定义实现:
const useRoutes = (routes) => {
const [routesLen] = useState(() => routes.length);
if (routesLen !== routes.length) {
throw new Error("路由数组长度必须保持不变!");
}
const matches = routes.map((def) => useRoute(def.path));
for (let [index, match] of matches.entries()) {
const [isMatch, params] = match;
if (isMatch) {
return cloneElement(routes[index].element, { params });
}
}
return null;
};
使用时可以这样:
const routes = [
{ path: "/", element: <Page1 /> },
{ path: "/2", element: <Page2 /> }
];
function App() {
return (
<AnimatePresence mode="wait">
{useRoutes(routes)}
</AnimatePresence>
);
}
关键注意事项
-
性能优化:为每个路由元素添加唯一的key属性非常重要,推荐使用location对象作为key,而不是仅使用pathname,以确保动画能正确触发。
-
动画模式:AnimatePresence的mode="wait"属性确保前一个组件完全退出后再进入下一个组件,避免动画冲突。
-
路由数组稳定性:自定义useRoutes实现中必须保持路由数组长度不变,否则会破坏React Hook规则。
总结
在wouter中实现Framer Motion的退出动画需要理解AnimatePresence的工作原理和路由组件的渲染层级。通过条件渲染或自定义路由钩子,开发者可以灵活地实现各种页面过渡效果。这种解决方案不仅适用于wouter,其原理也可以应用于其他类似场景。
对于复杂的路由动画需求,建议考虑将动画逻辑封装成可复用的高阶组件或自定义Hook,以提高代码的可维护性。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00