让人工智能协同工作可能会成为该技术的强大力量倍增器。现在,微软研究人员发明了一种新语言来帮助他们的模型更快、更有效地相互通信。
人工智能代理是硅谷的最新流行词。这些人工智能模型可以自主执行复杂的多步骤任务。但展望未来,一些人认为未来多个人工智能代理将协作解决更具挑战性的问题。
鉴于这些代理由大型语言模型 (LLM) 提供支持,让它们协同工作通常依赖于代理以自然语言(通常是英语)相互交谈。但是,尽管人类语言具有表达能力,但对于基本上以 1 和 0 运行的机器来说,它可能不是最好的交流媒介。
这促使微软的研究人员开发了一种新的通信方法,允许代理以支持法学硕士的高维数学语言相互交谈。他们将这种新方法命名为 Droidspeak(参考《星球大战》中机器人使用的基于蜂鸣声和口哨的语言),在arXiv上发表的预印本论文中,微软团队报告称,该方法使模型的通信速度提高了 2.78 倍,而所需的时间却很少。准确性丢失。
通常,当人工智能代理使用自然语言进行通信时,它们不仅会共享当前正在处理的步骤的输出,还会共享截至该点的整个对话历史记录。接收代理必须处理这一大块文本才能理解发送者正在谈论的内容。
这会产生相当大的计算开销,如果代理进行重复的来回操作,计算开销会迅速增长。研究人员表示,此类交换很快就会成为通信延迟的最大因素,限制了多代理系统的可扩展性和响应能力。
为了打破瓶颈,研究人员设计了一种让模型直接共享语言生成之前的计算步骤中创建的数据的方法。原则上,接收模型将直接使用它,而不是处理语言,然后创建自己的高级数学表示。
然而,在模型之间传输数据并不简单。不同的模型以非常不同的方式表示语言,因此研究人员专注于同一底层 LLM 版本之间的通信。
即便如此,他们也必须明智地选择要共享哪些数据。有些数据可以直接被接收模型重用,而其他数据则需要重新计算。该团队设计了一种自动解决此问题的方法,以从该方法中节省最大的计算量。
马里兰大学巴尔的摩分校的菲利普·费尔德曼 (Philip Feldman) 告诉《新科学家》杂志,由此产生的通信速度加快可以帮助多智能体系统解决比使用自然语言更大、更复杂的问题。
但研究人员表示,仍有很大的改进空间。首先,如果不同尺寸和配置的模型能够进行通信,将会很有帮助。他们还可以通过在模型之间传输中间表示之前压缩它们来节省更多的计算量。
然而,这似乎只是迈向机器语言多样性与人类语言相媲美的未来的第一步。
图片来源: Shawn Suttle ,来自Pixabay