用受过 500,000 条群聊消息训练的法学硕士取代我最好的朋友
Izzy Miller 使用与五个大学朋友长达 7 年的小组文本对话来微调 LLaMA,使其可以模拟正在进行的对话。他们首先从 Mac 上的 iMessage SQLite 数据库中提取消息,然后从这些消息中生成一个新的训练集,并使用 Stanford Alpaca 存储库中的代码运行它。这确实是我在任何地方看到的对像这样的模型进行微调过程的最清晰的解释之一。
通过黑客新闻
原文: http://simonwillison.net/2023/Apr/12/replacing-my-best-friends/#atom-everything