首页
/ OpenAI-PHP 客户端库实现流式响应中的用量统计功能解析

OpenAI-PHP 客户端库实现流式响应中的用量统计功能解析

2025-06-08 15:12:20作者:董灵辛Dennis

背景介绍

在人工智能API调用场景中,流式响应(Streaming Response)是一种重要的交互方式。OpenAI的Chat Completions API支持流式传输功能,允许开发者实时获取模型生成的内容片段。然而在早期版本中,流式响应无法返回API调用的用量统计信息(如token消耗量),这给开发者进行成本核算和资源管理带来了不便。

技术实现演进

最新版本的OpenAI API已支持在流式响应中包含用量统计信息。开发者只需在请求参数中设置stream_options: {"include_usage": true},API就会在流式传输的最后一个数据块中包含用量统计信息。

PHP客户端库的适配

openai-php/client库近期通过PR#398实现了对这一特性的支持。主要改进包括:

  1. 在流式响应处理逻辑中增加对usage字段的解析
  2. 确保最后一个包含用量信息的数据块能被正确处理
  3. 保持与现有API的兼容性

使用示例

开发者可以通过以下方式获取流式响应中的用量信息:

$response = OpenAI::chat()->createStreamed([
    'model' => 'gpt-4',
    'stream_options' => ['include_usage' => true],
    'messages' => [/* 对话消息 */],
]);

foreach ($response as $chunk) {
    // 处理实时内容
    if (!empty($chunk->choices)) {
        echo $chunk->choices[0]->delta?->content ?? '';
    }
}

// 获取用量统计
$promptTokens = $chunk?->usage->promptTokens ?? 0;
$completionTokens = $chunk?->usage->completionTokens ?? 0;

技术要点解析

  1. 流式传输机制:API会将响应分成多个数据块逐个发送,最后一个数据块包含用量信息
  2. 数据块结构:普通数据块包含choices数组,而最后一个数据块包含usage对象
  3. PHP客户端处理:库内部会自动累积数据块,并在最后提供完整的用量统计

应用场景

这一改进特别适用于:

  • 需要实时显示生成内容同时跟踪资源消耗的应用
  • 基于用量进行计费的SaaS平台
  • 需要优化prompt以控制成本的开发场景

最佳实践建议

  1. 始终检查最后一个数据块的usage字段是否存在
  2. 考虑在网络不稳定的情况下添加重试逻辑
  3. 对于高并发应用,建议缓存用量信息以避免重复计算

总结

openai-php/client库对用量统计功能的支持使得开发者能够更精细地管理和优化AI资源使用。这一改进保持了API的易用性,同时提供了更全面的监控能力,是开发生态系统成熟度提升的重要标志。

登录后查看全文
热门项目推荐
相关项目推荐