通往通用人工智能之路:规模定律之争
在人工智能(AI)发展浪潮中,通用人工智能(AGI)宛如一座闪耀却遥远的灯塔,吸引着全球领先 AI 公司竞相追逐。而规模定律(scaling laws)作为大模型预训练的核心原则,在这场追逐 AGI 的征程中引发了硅谷各界的激烈争论,不同观点的碰撞,为我们揭示了通往 AGI 道路的复杂性与不确定性。
一、规模定律:通往 AGI 的关键路径?
(一)谷歌 DeepMind 的坚定支持
谷歌 DeepMind CEO 德米斯・哈萨比斯凭借 Gemini 3 赢得广泛赞誉后,明确表示扩大 AI 模型规模是实现通用人工智能的关键。他认为必须将当前 AI 的规模化推向极致,这不仅是 AGI 的关键组成部分,甚至有可能直接构成整个 AGI 系统。规模定律在机器学习领域描述了性能与模型规模、训练数据集大小及计算资源之间的可预测关系,简单理解就是“模型越大 + 数据越多训练越久=越聪明”。这种观点在谷歌 DeepMind 这样的科技巨头推动下,成为一股强大的力量,促使大量资源不断投入到扩大模型规模、增加数据量和提升算力的方向上。
(二)规模定律的优势支撑
规模定律之所以被众多业界人士视为重要方向,是因为在实际应用中,更大规模的模型往往能展现出更强大的性能。例如,在自然语言处理任务中,随着模型规模的增大,语言理解、生成和推理能力显著提升,能够处理更复杂的语境和任务。在图像识别领域,大规模模型也能更准确地识别各种物体和场景。这种性能的提升让人们对规模定律充满期待,认为沿着这条路持续走下去,或许能够逐步逼近 AGI 的目标。
二、规模定律的困境与挑战
(一)资源限制与成本攀升
然而,规模定律并非一帆风顺。公开的数据总量是有限的,随着模型对数据需求的不断增长,数据获取变得越来越困难。同时,增加算力意味着要建设更多数据中心,这不仅需要巨额的资金投入,还会导致训练成本越来越高昂。建设数据中心需要占用大量土地、消耗大量能源,对自然环境造成压力,不符合可持续发展的理念。而且,高昂的成本也使得只有少数科技巨头有能力持续投入,限制了行业的整体发展。
(二)投入产出递减的担忧
一些关注 AI 的专家担心,大语言模型公司持续投入规模定律会出现投入产出递减现象。随着模型规模不断扩大,性能提升的幅度可能会逐渐减小,即每增加一单位资源投入,所带来的性能提升越来越有限。这意味着单纯依靠扩大规模可能无法高效地实现 AGI,需要寻找新的突破点。
三、反对之声:规模定律并非唯一出路
(一)Yann LeCun 的别样观点
前 Meta 首席 AI 科学家 Yann LeCun(杨立昆)认为 AI 行业不能只靠规模定律。他今年 4 月在新加坡国立大学(NUS)表示,大多数真正有趣的问题在规模定律下表现得极其糟糕,不能简单地认为堆数据和堆算力就能产出更聪明的 AI。这一观点挑战了规模定律的权威性,引发了业界的深入思考。
(二)“世界模型”的探索
Yann LeCun 离开 Meta 是为了构建一款不依赖语言数据,而是依靠空间数据的“世界模型”AI 体系,这可以被视为大语言模型的替代方案。“世界模型”试图让 AI 像人类一样,通过对周围环境的感知和交互来理解世界,而不是仅仅依赖大量的文本数据。这种探索为 AI 发展开辟了新的方向,提醒人们除了规模定律之外,还有其他可能的路径通往 AGI。
四、通往 AGI 的多元探索与未来展望
(一)规模定律与额外突破的结合
哈萨比斯虽然支持规模定律,但也怀疑最终可能需要一到两个额外的突破才能达成 AGI。这表明即使规模定律是重要基础,但仅靠它可能不足以实现 AGI 的终极目标。未来或许需要在扩大规模的同时,在算法创新、认知架构设计、多模态融合等方面取得突破,才能让 AI 真正具备与人类同等甚至超越人类的智能。
(二)多元路径的竞争与合作
硅谷出现的这两种不同声音,反映了通往 AGI 道路的多元性。规模定律和“世界模型”等替代方案各有优劣,它们将在未来的发展中相互竞争、相互促进。不同研究团队和科技公司可能会根据自己的优势和理念选择不同的路径进行探索,而最终可能通过技术融合和合作,汇聚各方成果,共同推动 AGI 的实现。
通往通用人工智能的道路充满了未知和挑战,规模定律之争只是其中的一个重要节点。无论是坚持规模定律的谷歌 DeepMind,还是探索“世界模型”的 Yann LeCun,他们的努力都在为 AI 的发展贡献力量。在这个充满创新和变革的时代,我们有理由期待,在多元探索的推动下,通用人工智能的梦想终将照进现实。