我刚刚发布了LLM的 0.19 版本,这是我的 Python 库和 CLI 实用程序,用于处理大型语言模型。
几周前我发布了 0.18,添加了对从 Python asyncio
代码调用模型的支持。 0.19 对此进行了改进,并且还为模型添加了报告其令牌使用情况的新机制。
LLM 可以将这些使用数字记录到 SQLite 数据库中,或者可供自定义 Python 代码使用。
我对这些功能的最终目标是将令牌会计作为 Datasette 插件实现,这样我就可以在我的 SaaS 平台中提供 AI 功能,而不必担心客户花费无限的 LLM 令牌。
0.19 完整发行说明:
- 对于默认 OpenAI 模型和实现此功能的其他插件的模型,响应使用的令牌现在记录到新的
input_tokens
和output_tokens
整数列以及token_details
JSON 字符串列。第610章llm prompt
现在采用-u/--usage
标志来在响应末尾显示令牌使用情况。llm logs -u/--usage
显示记录的响应的令牌使用信息。llm prompt ... --async
响应现在已记录到数据库中。第641章llm.get_models()
和llm.get_async_models()
函数,记录在此处。第640章response.usage()
和异步响应await response.usage()
方法,返回Usage(input=2, output=1, details=None)
数据类。第644章response.on_done(callback)
和await response.on_done(callback)
方法用于指定响应完成时要执行的回调,记录在此处。第653章- 修复了在 Windows 11 上运行
llm chat
错误。谢谢Sukhbinder Singh 。第495章
我还发布了三个新的插件版本,增加了对新使用情况跟踪功能的支持: llm-gemini 0.5 、 llm-claude-3 0.10和llm-mistral 0.9 。
标签: llm 、发行说明、生成人工智能、项目、人工智能、 llms
原文: https://simonwillison.net/2024/Dec/1/llm-019/#atom-everything