根据我的人工智能编码经验,非常大的上下文窗口在实践中没有用处。当你给每个模型提供超过 25-30k 代币时,它们似乎都会感到困惑。模型停止遵守系统提示,无法在上下文中正确查找/转录代码片段等。
开发aider时,我在gpt-4o、Sonnet、DeepSeek等中看到过这个问题。许多aider用户也报告了这个问题。这可能是用户遇到的第一个问题,所以我创建了一个专门的帮助页面。
非常大的上下文对于具有大量“低价值”上下文的某些任务可能很有用。但对于编码来说,它似乎诱使用户陷入有问题的境地。
标签: aider ,人工智能辅助编程,生成人工智能,长上下文,人工智能, LLMS , paul-gauthier
原文: https://simonwillison.net/2025/Jan/26/paul-gauthier/#atom-everything