切换到宽版
  • 25阅读
  • 2回复

[智能应用]扩大AI规模是实现通用人工智能关键 [复制链接]

上一主题 下一主题
在线天人地

UID: 1627269

精华: 2
级别: 上清仙尊
 

发帖
295569
金币
22633
道行
40006
原创
108
奖券
147
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 36586(小时)
注册时间: 2012-09-03
最后登录: 2025-12-10
只看楼主 倒序阅读 使用道具 楼主  发表于: 前天 11:34
IT之家 12 月 8 日消息,据《商业内幕》昨天报道,谷歌 DeepMind CEO 德米斯・哈萨比斯(Demis Hassabis)最近表示,扩大 AI 模型规模是实现通用人工智能(AGI)的关键。

据报道,硅谷各界人士一直在进行一场持续的争论:规模定律(scaling laws)究竟能让 AI 走向何方?
刚刚凭借 Gemini 3 获得广泛赞誉的谷歌 DeepMind CEO 德米斯・哈萨比斯在上周表示:“我们必须把当前 AI 的规模化推向极致,它最终会成为通用人工智能的关键组成部分,甚至有可能构成整个通用人工智能系统”。
IT之家注:通用人工智能(AGI)指的是具备与人类同等智能或超越普通人类的人工智能,能表现正常人类所具有的所有智能行为,目前仍处于理论状态,全球领先的 AI 公司都在为此投入,争夺头牌。
而规模定律(scaling laws)指的是机器学习领域描述性能与模型规模、训练数据集大小及计算资源之间可预测关系的经验性规律,被 AI 业界视为大模型预训练的核心原则,可以用“模型越大 + 数据越多训练越久=越聪明”来理解。
回到正文,哈萨比斯还认为,只靠规模定律或许能让 AI 走向 AGI,但他也怀疑最终可能需要一到两个额外的突破才能达成 AGI
但规模定律并非完美无缺,毕竟公开的数据总量是有限的,而且增加算力意味着要建设更多数据中心,会导致训练成本越来越高昂,且对自然环境造成压力。一些关注 AI 的专家也担心,大语言模型公司持续投入规模定律会出现投入产出递减现象。
与此同时,硅谷也出现了另一派声音,其中前 Meta 首席 AI 科学家、近期宣布离职创业的 Yann LeCun(杨立昆)就认为,AI 行业不能只靠规模定律。

他今年 4 月在新加坡国立大学(NUS)表示:“大多数真正有趣的问题在规模定律下表现得极其糟糕,你不能简单地认为堆数据和堆算力就能产出更聪明的 AI”。
据悉,他离开 Meta 是为了构建一款不依赖语言数据,而是依靠空间数据的“世界模型”AI 体系,可以被视为大语言模型的替代方案。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
天人地
在线天人地

UID: 1627269

精华: 2
级别: 上清仙尊

发帖
295569
金币
22633
道行
40006
原创
108
奖券
147
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 36586(小时)
注册时间: 2012-09-03
最后登录: 2025-12-10
只看该作者 沙发  发表于: 前天 11:37
扩大AI规模被认为是通往通用人工智能(AGI)的关键路径之一,但并非唯一决定因素。

🔍 背景
实现通用人工智能(AGI)——即具备与人类相当或超越人类的广泛认知能力——是当前全球AI研发的核心目标。在这一进程中,“扩大AI规模”指的是通过增加模型参数量、训练数据规模以及计算资源投入,来提升AI系统的智能表现。这一方法依托于“规模定律”(scaling laws),即模型性能随规模增长而可预测地提升1。谷歌DeepMind CEO德米斯·哈萨比斯明确指出,必须将当前AI的规模化推向极致,它可能构成AGI的关键部分,甚至整个系统1。

然而,该路径也面临挑战:数据总量有限、训练成本高昂、环境压力增大,且可能出现投入产出递减现象1。因此,业界对此存在不同声音。

🧭 主流观点与争议路径对比
目前AI学界围绕“是否仅靠扩大规模就能实现AGI”形成了两大阵营:

维度    规模路径(Scaling Path)    结构路径(Structural Path)
核心理念    智能是规模的产物,参数即知识    智能源于大脑式结构设计,强调机制与动态演化
代表人物/机构    谷歌DeepMind、OpenAI    陈天桥(天桥脑科学研究院)、部分认知科学家
技术手段    增大模型参数、扩展数据集、提升算力    构建时间结构、长期记忆、因果推理、世界模型等机制
当前成果    Gemini、GPT系列、Sora等大模型成功落地    尚处理论与早期实验阶段
主要挑战    数据瓶颈、高能耗、边际效益下降    工程实现难度大、缺乏明确技术路线
是否认为单靠规模可达AGI    部分支持,但承认可能需额外突破1    明确反对,认为需根本性结构创新4
哈萨比斯虽支持规模路径,但也承认可能需要一到两个额外突破才能实现AGI1。而前Meta首席AI科学家杨立昆则认为,仅靠规模无法达成真正智能,他正致力于构建不依赖语言数据的“世界模型”AI体系3。

此外,也有观点认为未来不会出现单一AGI系统,而是由多种专用智能(AIs)组成的复合网络9。华为高管则提出,智能体(Agent)是实现AGI的重要路径之一,强调目标导向的自主行为16。

🤖 补充视角:其他实现AGI的潜在路径
除了规模与结构之争,还有以下方向被提出:

智能体(Agent)路径:通过构建能与环境交互、自主决策的软件实体,逐步演化出高级智能16。
具身智能(Embodied AI):将AI与物理身体结合,在真实世界中学习和适应,被认为是通向AGI的重要方向之一20。
算法优化与蒸馏:通过更优算法、推理计算和模型蒸馏提升效率,而非单纯扩大规模21。
🎯 结论
扩大AI规模是当前最成熟且有效的AGI探索路径,已被主流公司广泛采用,但其局限性促使学界寻求结构创新、智能体演化等替代或补充方案。未来更可能是多种路径融合的结果,而非单一模式胜出。
如何不发帖就快速得到金币道行
 
天人地
在线jjybzxw

UID: 551814


发帖
209570
金币
592986
道行
2005
原创
2438
奖券
3180
斑龄
40
道券
1167
获奖
0
座驾
设备
摄影级
在线时间: 46090(小时)
注册时间: 2008-10-01
最后登录: 2025-12-10
只看该作者 板凳  发表于: 前天 19:50
通往通用人工智能之路:规模定律之争
在人工智能(AI)发展浪潮中,通用人工智能(AGI)宛如一座闪耀却遥远的灯塔,吸引着全球领先 AI 公司竞相追逐。而规模定律(scaling laws)作为大模型预训练的核心原则,在这场追逐 AGI 的征程中引发了硅谷各界的激烈争论,不同观点的碰撞,为我们揭示了通往 AGI 道路的复杂性与不确定性。

一、规模定律:通往 AGI 的关键路径?
(一)谷歌 DeepMind 的坚定支持
谷歌 DeepMind CEO 德米斯・哈萨比斯凭借 Gemini 3 赢得广泛赞誉后,明确表示扩大 AI 模型规模是实现通用人工智能的关键。他认为必须将当前 AI 的规模化推向极致,这不仅是 AGI 的关键组成部分,甚至有可能直接构成整个 AGI 系统。规模定律在机器学习领域描述了性能与模型规模、训练数据集大小及计算资源之间的可预测关系,简单理解就是“模型越大 + 数据越多训练越久=越聪明”。这种观点在谷歌 DeepMind 这样的科技巨头推动下,成为一股强大的力量,促使大量资源不断投入到扩大模型规模、增加数据量和提升算力的方向上。

(二)规模定律的优势支撑
规模定律之所以被众多业界人士视为重要方向,是因为在实际应用中,更大规模的模型往往能展现出更强大的性能。例如,在自然语言处理任务中,随着模型规模的增大,语言理解、生成和推理能力显著提升,能够处理更复杂的语境和任务。在图像识别领域,大规模模型也能更准确地识别各种物体和场景。这种性能的提升让人们对规模定律充满期待,认为沿着这条路持续走下去,或许能够逐步逼近 AGI 的目标。

二、规模定律的困境与挑战
(一)资源限制与成本攀升
然而,规模定律并非一帆风顺。公开的数据总量是有限的,随着模型对数据需求的不断增长,数据获取变得越来越困难。同时,增加算力意味着要建设更多数据中心,这不仅需要巨额的资金投入,还会导致训练成本越来越高昂。建设数据中心需要占用大量土地、消耗大量能源,对自然环境造成压力,不符合可持续发展的理念。而且,高昂的成本也使得只有少数科技巨头有能力持续投入,限制了行业的整体发展。

(二)投入产出递减的担忧
一些关注 AI 的专家担心,大语言模型公司持续投入规模定律会出现投入产出递减现象。随着模型规模不断扩大,性能提升的幅度可能会逐渐减小,即每增加一单位资源投入,所带来的性能提升越来越有限。这意味着单纯依靠扩大规模可能无法高效地实现 AGI,需要寻找新的突破点。

三、反对之声:规模定律并非唯一出路
(一)Yann LeCun 的别样观点
前 Meta 首席 AI 科学家 Yann LeCun(杨立昆)认为 AI 行业不能只靠规模定律。他今年 4 月在新加坡国立大学(NUS)表示,大多数真正有趣的问题在规模定律下表现得极其糟糕,不能简单地认为堆数据和堆算力就能产出更聪明的 AI。这一观点挑战了规模定律的权威性,引发了业界的深入思考。

(二)“世界模型”的探索
Yann LeCun 离开 Meta 是为了构建一款不依赖语言数据,而是依靠空间数据的“世界模型”AI 体系,这可以被视为大语言模型的替代方案。“世界模型”试图让 AI 像人类一样,通过对周围环境的感知和交互来理解世界,而不是仅仅依赖大量的文本数据。这种探索为 AI 发展开辟了新的方向,提醒人们除了规模定律之外,还有其他可能的路径通往 AGI。

四、通往 AGI 的多元探索与未来展望
(一)规模定律与额外突破的结合
哈萨比斯虽然支持规模定律,但也怀疑最终可能需要一到两个额外的突破才能达成 AGI。这表明即使规模定律是重要基础,但仅靠它可能不足以实现 AGI 的终极目标。未来或许需要在扩大规模的同时,在算法创新、认知架构设计、多模态融合等方面取得突破,才能让 AI 真正具备与人类同等甚至超越人类的智能。

(二)多元路径的竞争与合作
硅谷出现的这两种不同声音,反映了通往 AGI 道路的多元性。规模定律和“世界模型”等替代方案各有优劣,它们将在未来的发展中相互竞争、相互促进。不同研究团队和科技公司可能会根据自己的优势和理念选择不同的路径进行探索,而最终可能通过技术融合和合作,汇聚各方成果,共同推动 AGI 的实现。

通往通用人工智能的道路充满了未知和挑战,规模定律之争只是其中的一个重要节点。无论是坚持规模定律的谷歌 DeepMind,还是探索“世界模型”的 Yann LeCun,他们的努力都在为 AI 的发展贡献力量。在这个充满创新和变革的时代,我们有理由期待,在多元探索的推动下,通用人工智能的梦想终将照进现实。
如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个