OpenAI 有一个新的最昂贵的模型:o1-pro 现在可以通过他们的 API 访问,输入价格为 150 美元/百万代币,输出为 600 美元/百万代币。这是 o1 和 o1-preview 型号价格的 10 倍,比最便宜型号 gpt-4o-mini 贵了整整 1,000 倍!
除此之外,它具有与 o1 基本相同的功能:200,000 个令牌上下文窗口、100,000 个最大输出令牌、2023 年 9 月 30 日知识截止日期,并且支持函数调用、结构化输出和图像输入。
o1-pro 不支持流媒体,对开发人员来说最重要的是第一个只能通过新的Responses API使用的 OpenAI 模型。这意味着针对 Chat Completions API 构建的工具(例如我自己的LLM )必须做更多的工作来支持新模型 – 我的问题就在这里。
由于 LLM 不支持这种新模型,所以我不得不使用curl
:
curl https://api.openai.com/v1/responses \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $(llm keys get openai)" \ -d '{ "model": "o1-pro", "input": "Generate an SVG of a pelican riding a bicycle" }'
这是我返回的完整 JSON – 81 个输入令牌和 1552 个输出令牌,总成本为 94.335 美分。
我冒险添加了"reasoning": {"effort": "high"}
来看看我是否可以通过更多的推理得到更好的鹈鹕:
curl https://api.openai.com/v1/responses \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $(llm keys get openai)" \ -d '{ "model": "o1-pro", "input": "Generate an SVG of a pelican riding a bicycle", "reasoning": {"effort": "high"} }'
令人惊讶的是,使用了更少的输出令牌 – 与之前的 1552 个相比,使用了 1459 个(成本:88.755 美分) –生成了这个 JSON ,它呈现为稍微更好的鹈鹕:
它更便宜,因为虽然它花费了 960 个推理令牌,而之前的 pelican 花费了 704 个,但它省略了 SVG 周围的解释文本,从而节省了总输出。
标签: o1 、 llm 、 openai 、推理缩放、 ai 、 llms 、 llm 发布、生成人工智能、鹈鹕骑自行车、 llm 定价
原文: https://simonwillison.net/2025/Mar/19/o1-pro/#atom-everything