重磅:Ilya复出首谈Scaling时代终结Agent的价值函数藏在人类情绪里

重磅!Ilya复出首谈:Scaling时代终结,Agent的“价值函数”藏在人类情绪里?
在大模型圈子里,如果说 Sam Altman 是站在台前的“产品经理”,那么 Ilya Sutskever 无疑是那个仰望星空的“技术先知”。
自从离开 OpenAI 创办 SSI(Safe Superintelligence)后,Ilya 几乎“隐身”了。直到最近,他在 Dwarkesh Patel 的播客中进行了一场长达 90 分钟的深度对谈。这不仅是一次访谈,更像是一份关于 AGI 未来路线图的口头白皮书 。
今天,咱们不聊八卦,只谈硬核。Ilya 在访谈中抛出了一个震撼观点: 简单粗暴的 Scaling(扩展)时代已经结束,真正的“研究”时代重新开始了。 这对我们研究 AI Agent 意味着什么?当模型不再能靠“吃更多数据”变强时,Agent 该如何进化?

📑 访谈速览:从“炼丹”回归“探索”
2.1 这次访谈讲了什么?
这是一场关于 AI 技术范式转移的深度对话。Ilya Sutskever,这位定义了深度学习和 GPT 范式的大神,直言不讳地指出了当前 AI 发展的瓶颈: 靠单纯堆算力、堆数据的“预训练时代”红利已近枯竭。
他不仅宣告了一个时代的结束,更指明了新的方向:AI 的未来在于 泛化能力(Generalization) 、 数据效率 ,以及如何构建像人类一样具备“价值函数”的智能系统。
2.2 核心思想/方法论
Ilya 的核心论点可以概括为:
- • Scaling Law 的边际效应递减: 就像爬山,预训练这条路虽然好走,但已经快到山顶了,再怎么用力也高不了多少。
- • 回归“Discovery”: 我们拥有了比 2012 年强大得多的算力,但现在需要回到 2012 年之前的状态——去探索、去试错、去寻找新的架构和学习范式,而不是单纯的工程化扩张。
⚙️ Agent 进化的新钥匙
对于我们关注的 AI Agent 领域,Ilya 的访谈透露了两个至关重要的技术隐喻,这直接关系到 Agent 如何从“复读机”进化为“思想者”。
3.1 泛化悖论:刷题家 vs. 天才少年
Ilya 提出了一个痛点:为什么现在的模型考试能拿满分,但修个简单的 Bug 却像在打乒乓球(改完旧的,引入新的,循环往复)?
他用了一个绝妙的比喻:
- • 学生 A(当前的模型): 刷了一万小时题,背下了所有题库。考试时即使题目微调,他也能靠记忆匹配做对。
- • 学生 B(理想的 Agent): 只练了一百小时,但他理解了背后的逻辑。
现在的模型就是学生 A。 能力(Capability)≠ 泛化(Generalization)。 对于 Agent 来说,我们不仅需要它在训练过的数据分布里表现良好,更需要它在面对从未见过的复杂环境时,具备“举一反三”的能力。 过度拟合训练集(哪怕是海量数据)恰恰扼杀了这种灵性。
3.2 情绪即“价值函数”:Agent 的决策罗盘
这是本次访谈中最让智使兴奋的观点!Ilya 从神经科学的角度解释了 Agent 该如何做规划。
人类为什么学得快?为什么不需要遍历所有可能性就能做出不错(虽非完美)的决定?
因为我们有“情绪”。
在 Ilya 看来, 情绪本质上是一个内置的、高效的“价值函数(Value Function)” 。
- • 传统 RL(强化学习): Agent 像个愣头青,撞了南墙才知道痛,必须等任务结束收到 Reward 才能反向更新,效率极低。
- • 人类模式: “情绪”提前剧透了结果。下棋丢子时的懊恼、编程思路不对时的烦躁,都是大脑的价值函数在对当前状态进行 预判 。
对 Agent 的启示:
未来的 Agent 不应只是被动接收指令的执行者,它内部必须构建一套类似“直觉”的价值评估系统。当它规划任务时,这套系统能像 GPS
一样,在它刚拐错弯时就发出警告,而不是等任务彻底失败。 这可能是实现 System 2 思维(慢思考)的关键路径。
🧪 为什么我们需要新的范式?
4.1 数据墙与“作弊”的研究员
Ilya 指出,预训练时代的数据筛选逻辑(越多越好)已经失效。在 RLHF(人类反馈强化学习)阶段, 真正“作弊(Reward Hacking)”的其实是人类研究员。
为了让 Benchmark 分数好看,研究员无意识地设计了特定的训练集。这导致模型在“考试”能力上突飞猛进,但在真实世界的复杂任务(Agent 最看重的能力)上止步不前。
4.2 惊人的数据效率对比
实验验证的差距在哪里?
- • 人类: 一个青少年只需 10 小时就能学会开车;5 岁小孩凭借家里那点贫瘠的视觉数据,就能完美识别路况。
- • AI: 需要数万亿 token,看过整个互联网。
这种巨大的 数据效率差异 证明,当前的 Transformer 架构或者学习范式,离真正的智能(AGI)还有本质的区别。Ilya 认为,SSI(他的新公司)的技术路线正是要攻克这个 “如何像人一样高效学习” 的难题,而不是继续堆算力。
💡 Agent 的下一个黄金时代
5.1 观点:从“大”到“灵”的转身
Ilya 的访谈宣告了 “暴力美学”的暂时退场 。对于 AI Agent 开发者和关注者来说,这是个好消息。这意味着未来的竞争不再仅仅是比拼谁有更多 H100 显卡,而是比拼谁有更 优雅(Elegant) 的算法品味,谁能设计出更高效的架构。
5.2 潜在应用场景:真正的“具身智能”
如果 Ilya 提到的“高泛化能力”得以实现,我们将看到:
- • 无需海量数据微调的垂直 Agent: 只要像教徒弟一样带它做几遍业务,它就能学会,并能处理突发情况。
- • 高可靠性的 Coding Agent: 不再是瞎猫碰死耗子地改 Bug,而是真正理解代码逻辑,能预判修改后果。
5.3 局限与挑战:看不见的未来
Ilya 也坦言,这种新的路径极其困难。因为“不存在的东西很难想象”。我们习惯了 Scaling 带来的确定性(投入 就 能 回 厚 2 的效果),而现在我们必须重新拥抱不确定性。此外,如何将“对感知生命的关怀”硬编码进超级智能,仍然是一个未解之谜。
结论
Ilya Sutskever 的这次发声,是对整个 AI 行业的一次“冷水清醒”。他告诉我们, AGI 不是一个出厂即巅峰的成品,而应该是一个拥有极致学习能力的“终身学习者”。
扩展的时代结束了,研究的时代开始了。这正是我们每一个 AI 探索者、开发者最好的机会。不要迷信参数量,去关注 Agent 的思考逻辑,去关注数据的质量,去寻找那个属于 Agent 的“价值函数”。
你认同 Ilya 说的“Scaling 时代已结束”吗?你觉得未来的 Agent 更需要的是“知识量”还是“直觉”?
💬 欢迎在评论区留下你的硬核观点! 咱们评论区见!
