这是令人惊讶的:DeepSeek 提供了我见过的唯一一个不实施速率限制的托管 LLM API:
DeepSeek API 不限制用户的速率限制。我们将尽力满足每一个要求。
但请注意,当我们的服务器流量压力较大时,您的请求可能需要一段时间才能收到服务器的响应。
想要针对 10,000 个项目运行提示吗?借助 DeepSeek,理论上您可以启动 100 个并行请求并几乎立即处理这些数据。
随着越来越多的公司开始构建依赖于 LLM 提示进行大规模数据提取和操作的系统,我预计高速率限制将成为不同平台之间的关键竞争优势。
标签:速率限制,生成人工智能, deepseek , ai , llms
原文: https://simonwillison.net/2025/Jan/18/deepseek-api-docs-rate-limit/#atom-everything