Karpathy 认为,AI 智能体代表了 AI 的一种未来,它的发展需要从神经科学中汲取灵感,鼓励 AI 智能体领域的研究者再接再厉。
近日,OpenAI 联合创始人,曾经 TeslaAI 总监,现在又重新返回 OpenAI 的 Andrej Karpathy 在一个开发者活动上,分享了自己对于 AI 智能体的看法。
7 年前,研究 AI 智能体的时机还不成熟
他先聊到了自己早期在 OpenAI 工作时,当时的业界潮流就是研究如何用强化学习的方法来改进 AI 智能体。
很多项目都在基于类似雅达利游戏来制作 AI 玩家。
当时他本人想做的是一个适用范围更广泛的产品。
但是因为当时的技术所限,做出来的效果不好,于是他和 OpenAI 就改变了方向,开始做大语言模型了。
当然,这期间我被自动驾驶分了心。
但是 5 年之后的现在,AI 智能体重新成为了一个非常有前途的方向。
因为现在有了全新的技术手段来研究 AI 智能体,情况和 2016 年完全不同了。
最简单的例子就是,现在没有人再像 2016 年那样用强化学习的方法来研究 AI 智能体了。
现在的研究方法和方向在当年是不可想象的。
AI 智能体代表着一个疯狂的未来,虽然可能还有点远
因为在未来,如果 AGI 能够出现,将会充分发挥 AI 智能体的能力。
未来的 AI 智能体可能不是单独的个体,而是会出现非常多的 AI 智能体组织,甚至是 AI 智能体文明。
这可能是一个让人非常兴奋,甚至是疯狂的未来。
但同时大家也要保持清醒和冷静。
因为一些技术趋势方向可能很容易构想,展望出来,但是要做成产品落地却很难。
很多技术都属于这种类型,比如自动驾驶就是这样。
技术远景很容易设想出来,汽车在街区行驶的演示也很容易做出来,但是做出产品可能需要 10 年时间。
同样,VR 也是这样的情况。
AI 智能体可能也属于这一类技术,应用场景很容易想象,前景让人兴奋,但是需要长期的技术发展和积累。
AI 智能体需要从神经科学中汲取灵感
就像深度学习早期的发展一样,AI 智能体的发展可能会从神经科学中获得启发。
思考 AI 智能体和神经科学的关系是很有意思的。
尤其是现在很多人都把大语言模型作为 AI 智能体解决方案的一部分。
但是如何构建一个完整的,拥有人类所有认知能力的数字实体呢?
显然,我们都认为需要某种潜在的系统来规划、思考和反思我们在做的事情。
这可能就是神经科学能发挥作用的地方。
举个例子,海马体是大脑非常重要的部分。
但是 AI 智能体中什么东西发挥着海马体的作用,来存储记忆,实现标记和检索等等的这些功能呢?
我们大致已经了解如何构建视觉和听觉皮层,但还有许多的东西我们并不知道在 AI 智能体中到底意味着什么。
比如潜意识的所在地 —— 丘脑在 AI Agents 中又相当于什么呢?
这些都是非常有趣的问题。
我专门带了一本神经科学方面的书,是有 David Eagleman 的《大脑与行为》,我发现这本书非常有趣,很有启发性。
就像早期 AI 研究在设计神经元时所做的那样,从神经科学中汲取有趣的灵感,也许是我们应该重新尝试的方向。
在座的大家就是行业的最前沿
可能大家不一定知道,但是今天到场的大家构建的 AI 智能体已经处于 AI 智能体能力的最前沿。
现在所有正在做大语言模型的机构,比如 OpenAI 等,我觉得都没有处于这个领域的最前沿。
最前沿的是在座的各位。
举个例子,OpenAI 非常擅长训练 Transformer 语言模型。
如果某篇论文提出了一种不同的训练方法,那么我们 OpenAI 内部的 Slack 群组里大家会讨论说:
「这个办法我两年半前尝试过,没什么用。」
我们对训练模型的方法的来龙去脉是很清楚的。
但是对于 AI 智能体的论文出来的时候,我们所有人都会很感兴趣,会觉得很了不起。
因为我们的团队最近 5 年的时间花在了别的地方。
在这个领域内我们没有比你们懂得更多,我们和大家站在同一竞争的水平线上。
这就是我觉得在座的各位处于 AI 智能体最前沿的原因,这一点对于 AI 智能体的发展是非常重要的。
参考资料:
广告声明:文内含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。