西蒙·威尔森发布research-llm-apis 2026-04-04,增强对LLM新功能的支持
Simon Willison··作者 Simon Willison
关键信息
新的抽象层支持不同厂商的流式和非流式模式,并在专用仓库中包含脚本和捕获输出,提高透明度和复用性。这使得开发者无需编写自定义集成即可测试和验证各种LLM如何处理工具。
资讯摘要
西蒙·威尔森宣布发布research-llm-apis 2026-04-04版本,这是他用于与LLM交互的Python库的重大更新。核心改进是一个重新设计的抽象层,现在支持服务器端工具执行等高级功能——这是Anthropic和谷歌等供应商日益提供的能力。为确保准确性,他使用Claude Code分析了来自四大主要提供商(Anthropic、OpenAI、Gemini、Mistral)的官方Python客户端库,然后生成curl命令来测试流式和非流式场景下的原始JSON API。
这些脚本和结果现在已公开存放在一个新仓库中,使其他开发者可以复制和验证跨平台的行为。目标是让LLM交互更加可预测且互操作性强,同时跟上生态系统快速变化的步伐。
资讯正文
<p><strong>发布:</strong> <a href="https://github.com/simonw/research-llm-apis/releases/tag/2026-04-04">research-llm-apis 2026-04-04</a></p>
<p>我正在对我的 LLM Python 库和命令行工具进行一项重大更新。LLM 通过其插件系统,在数十家不同厂商提供的数百种大语言模型(LLM)之上提供了一个抽象层。然而,过去一年中一些厂商新增了功能,而 LLM 的抽象层目前还无法支持这些功能,比如服务器端的工具执行。</p>
<p>为了设计新的抽象层,我让 Claude Code 阅读了 Anthropic、OpenAI、Gemini 和 Mistral 的 Python 客户端库,并利用这些库来生成用于访问原始 JSON 数据的 <code>curl</code> 命令,覆盖多种场景下的流式与非流式模式。这些脚本和捕获的输出现在都已存入这个新仓库中。</p>
来源与参考
收录于 2026-04-06