我们从《大脑谷》中得到的最大收获:尽管存在扩展法律争论,但人工智能的进步没有障碍我们从 Anthropic、Scale AI、a16z、Databricks、Glean、CoreWeave、Waymo、Character.AI、Menlo Ventures 等公司的领导者那里学到了什么
生成式人工智能时代已经过去两年了,一场关于大型语言模型的改进是否遇到障碍的激烈辩论正在激烈进行,周三在旧金山举行的脑谷人工智能峰会上,这场辩论在舞台上进行了现场直播。 大约 350 名创始人和投资者挤满了人,他们首先听到了Scale AI 的Alexandr Wang 的声音。他说基础模型似乎已经碰壁了。 “看来我们在预训练方面遇到了困难,”王说。 “因此,对大量互联网数据进行大型集群训练似乎确实遇到了障碍,但我们在人工智能的进步方面还没有遇到障碍。” Databricks 的Ali Ghodsi表示,无论是否存在任何类型的隔离墙,光是成本就使得法学硕士“越大越好”的方法不切实际。一整天,发言者都强调了培训后和专业数据集在构建应用程序中的重要性,并质疑合成数据或其他技术是否可以替代可用于法学硕士培训的新鲜互联网数据的减少。 不过,在当天的最后一场会议中,Anthropic 的达里奥·阿莫代 (Dario Amodei)急于纠正大家的错误。没有理由相信基础模型的进展将开始放缓。 “我是最早记录缩放定律和人工智能扩展的人之一。我在这个领域所看到的一切都与我过去 10 年所见的情况不符,也没有让我预期事情会放缓,”他宣称。 “我认为不存在任何障碍……一般来说,每隔几个月我们就会看到更好的模型。” 我们肯定会听到更多关于生成人工智能是否可以让我们到达卡米洛特,或者是否需要根本不同的方法的非常大的问题。 但与此同时,人工智能领域对我们已经拥有的能力所能做到的事情充满了乐观。 Menlo Ventures 的Tim Tully 展示了企业如何加快采用人工智能应用程序。生物技术和机器人技术的创始人向与会者介绍了这些领域的特殊挑战。经纪人是每个人都在考虑的事情。 幸运的是,这一次政治不再那么重要,尽管王谈到了赢得与中国的人工智能竞赛的重要性。 阿莫代表示,他赞成对人工智能进行严格针对性的监管。他表示,应该重点关注“最严重的威胁——生物、网络、核、自主风险……这些确实存在公共安全和国家安全等问题。” 无论如何,阿莫迪都不是人工智能的毁灭者,但他并没有过多考虑马克·安德森提出的人工智能“只是数学”因此不会有危险的想法。 “你的大脑不就是数学吗?当神经元放电时,它会汇总突触。这也是数学。你知道,你不应该害怕希特勒——这只是数学,对吧?”他说。 会议还包括一些演示和小型讨论组以及头条新闻;我们一直在努力寻找新的方法,让我们的活动变得有用和有趣。 非常感谢我们出色的合作伙伴以及 Volley 的共同主持人马克斯·柴尔德 (Max Child)和詹姆斯·威尔斯特曼 (James Wilsterman) 。 感谢我们的赞助商:惠普、甲骨文、Sapphire Ventures、Kleiner Perkins、Latham and Watkins、Crusoe、Mayfield、Samsung Next、Lambda、Menlo Ventures、Alexa Fund、Alkeon Capital Management、Obvious Ventures、Pear VC、Pyxis Search、Fenwick和德勤。 继续阅读有关脑谷发生的一切的概要预训练墙Eric 在当天一开始就向Scale AI 的Alexandr Wang询问了当前的大问题:法学硕士的改进是否遇到了障碍? 他的回答是“是和否”,但他随后概述了他的观点,即处理越来越多数据的计算量越来越大,确实达到了一些极限…… 订阅可以让您:
© 2024埃里克·纽科默 |
我们从《大脑谷》中得到的最大收获:尽管存在扩展法律争论,但人工智能的进步没有障碍
我们从 Anthropic、Scale AI、a16z、Databricks、Glean、CoreWeave、Waymo、Character.AI、Menlo Ventures 等公司的领导者那里学到了什么
͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏