使用 llama.cpp 在 64GB M2 MacBook Pro 上运行 LLaMA 7B
我使用 Georgi Gerganov 的 llama.cpp(“Facebook LLaMA 模型在 C/C++ 中的端口”)让 Facebook 的 LLaMA 7B 在我的 MacBook Pro 上运行。有用!多年来,我一直希望在自己的硬件上运行 GPT-3 类语言模型,现在完全有可能做到这一点。在应用 Georgi 的脚本“将模型量化为 4 位”后,模型本身最终只有 4GB。
翻译英文优质信息和名人推特
使用 llama.cpp 在 64GB M2 MacBook Pro 上运行 LLaMA 7B
我使用 Georgi Gerganov 的 llama.cpp(“Facebook LLaMA 模型在 C/C++ 中的端口”)让 Facebook 的 LLaMA 7B 在我的 MacBook Pro 上运行。有用!多年来,我一直希望在自己的硬件上运行 GPT-3 类语言模型,现在完全有可能做到这一点。在应用 Georgi 的脚本“将模型量化为 4 位”后,模型本身最终只有 4GB。