React Native 中使用 @hey-api/client-fetch 上传图片的解决方案
在 React Native 开发中,使用 @hey-api/client-fetch 进行图片上传时,开发者可能会遇到一个常见问题:表单数据中的图片对象被意外地字符串化,导致后端无法正确接收文件。本文将深入分析这个问题,并提供完整的解决方案。
问题背景
当开发者使用 @hey-api/openapi-ts 生成的客户端代码配合 @hey-api/client-fetch 进行文件上传时,React Native 中的图片对象会被错误地处理。典型的 React Native 图片对象结构如下:
{
uri: Platform.OS === 'ios' ? `file:///${path}` : path,
type: mime,
name: filename || 'image.jpg'
}
问题根源
问题的核心在于默认的表单数据序列化器(formDataBodySerializer)无法正确识别 React Native 特有的文件对象格式。默认实现会将这些对象通过 JSON.stringify() 转换为字符串,而非作为文件处理。
解决方案
我们需要自定义表单数据序列化器,使其能够正确处理 React Native 的文件对象。以下是完整的实现方案:
type FileUpload = {
uri: string;
type?: string;
name?: string;
};
const isFileUpload = (value: unknown): value is FileUpload =>
typeof value === 'object' && typeof (value as any).uri === 'string';
const serializeFormDataPair = (
data: FormData,
key: string,
value: unknown,
) => {
if (
typeof value === 'string' ||
value instanceof Blob ||
isFileUpload(value)
) {
data.append(key, value);
} else {
data.append(key, JSON.stringify(value));
}
};
const formDataBodySerializer = {
bodySerializer: <
T extends Record<string, any> | Array<Record<string, any>>,
>(
body: T,
) => {
const data = new FormData();
Object.entries(body).forEach(([key, value]) => {
if (value === undefined || value === null) {
return;
}
if (Array.isArray(value)) {
value.forEach((v) => serializeFormDataPair(data, key, v));
} else {
serializeFormDataPair(data, key, value);
}
});
return data;
},
};
实现说明
-
类型定义:我们首先定义了 FileUpload 类型,描述 React Native 中文件对象的结构。
-
类型守卫:isFileUpload 函数用于判断一个值是否为 React Native 文件对象。
-
序列化逻辑:serializeFormDataPair 函数处理三种情况:
- 字符串直接附加
- Blob 对象直接附加
- React Native 文件对象直接附加
- 其他类型通过 JSON.stringify 转换
-
表单构建器:formDataBodySerializer 遍历请求体,正确处理各种数据类型。
应用场景
这个解决方案特别适用于以下场景:
- 使用 @hey-api/openapi-ts 生成客户端代码
- 在 React Native 应用中上传图片
- 使用 TanStack Query 进行数据管理
- 后端期望接收 multipart/form-data 格式的数据
注意事项
-
跨平台兼容性:此方案同时考虑了 iOS 和 Android 平台的 URI 格式差异。
-
类型安全:通过 TypeScript 类型守卫确保类型安全。
-
扩展性:可以轻松扩展以支持其他特殊数据类型。
总结
通过自定义表单数据序列化器,我们成功解决了 React Native 中图片上传时对象被字符串化的问题。这个方案不仅解决了当前问题,还提供了良好的扩展性,可以适应未来可能出现的其他数据类型处理需求。
对于使用 @hey-api 生态系统的 React Native 开发者来说,这是一个可靠且实用的解决方案,能够确保文件上传功能在各种场景下正常工作。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00