
IT之家12月8日报道 Business Insider 昨天报道称,谷歌 DeepMind 首席执行官 Demis Hassabis 近日表示,扩大 AI 模型的规模是实现通用人工智能(AGI)的关键。据报道,硅谷各界人士正在进行一场持续不断的争论:从哪里推导出缩放定律?刚刚因 Gemini 3 获得广泛赞誉的谷歌 DeepMind 首席执行官 Demis Hassabis 上周表示:“我们必须将当前人工智能的规模推向极致,它将成为通用人工智能的关键组成部分,甚至可能构成整个通用人工智能系统。”注:通用人工智能(Artificial General Intelligence,AGI)是指与人类同等智能或超过普通人的人工智能,即人可以执行正常人的所有智能行为。目前还处于理论状态。全球领先的人工智能公司纷纷投资,争夺市场份额op 点。缩放法则是指机器学习领域的经验法则,描述了性能与模型大小、数据集大小和计算资源之间的可预测关系。这些被AI行业认为是大模型预训练的主要原则,可以理解为“更大的模型+更多的数据和更长的训练=更聪明”。回到正文,哈萨比斯也认为仅靠规模法则就能将AI引向AGI,但他也怀疑可能还需要一两个突破才能实现AGI。就是这样,但是,规模法则并不完美。毕竟,公共数据总量是有限的,增加计算能力意味着建设更多的数据中心,这将导致更昂贵的培训并对自然环境造成压力。一些关注AI的专家还担心,大型语言建模公司的持续投资法会导致投入和产出下降。与此同时,另一组硅谷中出现了这样的声音。其中,前Meta首席AI科学家、前不久宣布辞职创业的Yann Lecun认为,AI行业不能仅仅依靠规模法则。今年四月,他对新加坡国立大学(NUS)表示:“大多数真正有趣的问题在规模法则下都会表现得过分。你无法想象堆积数据和计算能力会创造出更聪明的人工智能。”据报道,他离开 Meta 是为了构建一个“世界模型”人工智能系统,该系统不依赖于语言数据,而是依赖于空间数据,这可以被认为是大规模语言模型的替代方案。
特别声明:以上内容(如有则包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。
注意:以上内容(如有图片和视频,也包括在内)由网易号用户加载并发布,该内容仅供参考。h是一个社交媒体平台,仅提供信息存储服务。