我已经在我的 4GB RAM Raspberry Pi 4 上成功运行 LLaMA 7B 模型。它超级慢大约 10 秒/令牌。但看起来我们可以在便宜的硬件上运行强大的认知管道。
原文: http://simonwillison.net/2023/Mar/12/artem-andreenko/#atom-everything
翻译英文优质信息和名人推特
我已经在我的 4GB RAM Raspberry Pi 4 上成功运行 LLaMA 7B 模型。它超级慢大约 10 秒/令牌。但看起来我们可以在便宜的硬件上运行强大的认知管道。
原文: http://simonwillison.net/2023/Mar/12/artem-andreenko/#atom-everything