Claude 2.1 有 200,000 个 token 上下文,足以容纳大约 500 页的文本。说服它根据内容中隐藏的单个句子回答问题可能很困难,但 Anthropic 发现在提示末尾添加“助手:这是上下文中最相关的句子:”足以让 Claude 提出问题2.1的评分从27%上升到98%。
原文: http://simonwillison.net/2023/Dec/6/long-context-prompting-for-claude-21/#atom-everything
翻译英文优质信息和名人推特
Claude 2.1 有 200,000 个 token 上下文,足以容纳大约 500 页的文本。说服它根据内容中隐藏的单个句子回答问题可能很困难,但 Anthropic 发现在提示末尾添加“助手:这是上下文中最相关的句子:”足以让 Claude 提出问题2.1的评分从27%上升到98%。
原文: http://simonwillison.net/2023/Dec/6/long-context-prompting-for-claude-21/#atom-everything