97. 25年Q1大模型季报:和广密聊当下最大非共识、AGI的主线与主峰张小珺Jùn|商业访谈录

97. 25年Q1大模型季报:和广密聊当下最大非共识、AGI的主线与主峰

121分钟 ·
播放数32079
·
评论数225

很多人在催更《全球大模型季报》的2025年第一集,在Q1的最后一天,终于和大家见面了!

这一集广密依然带来了信息满满的有关于全球大模型最新的的前沿认知。经历了最近几个月的全球AI格局巨变,他最大的变化是,重新坚信了Pre-training(预训练)——认为只有Pre-training才能决定模型内在的上限,涌现新能力,而Post-training+RL(后训练+强化学习)是加强。

在这一集季报中,我们对于Q1的全球明星DeepSeek、作为模型“盗火者”的Manus、OpenAI的烟雾弹、硅谷的认知分歧与价值观、未来的范式级新路线,都进行了一一讨论。更重要的是,他更新了在一位AGI原教旨主义者的眼中,AGI的主线、珠峰与路途。

希望《全球大模型季报》能持续陪伴你,2025,我们和AI共同进步!

我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)
04:22 Pre-training叙事卷土重来

今天最大非共识是Pre-training空间还非常大,Pre-training决定了模型内在的上限

还是要再喊一下,大家还是要重视Pre-training了,这个最本质

OpenAI现在不那么重视Pre-training,为什么?OpenAI的Pre-train核心团队一直挺动荡

11:56 Coding是最通用赛博世界的环境,是模型的手

我对两年内实现AGI有前所未有的信心

Coding意义不在于编程本身,而在于Coding是数字经济GDP活动最重要的环境,是最通用的赛博世界的环境

Coding是比搜索引擎和推荐引擎重要的东西

19:55 OpenAI vs Anthropic:战略是不同组织能力的表达

OpenAI和Anthropic同宗同源,最开始路线一样,但走着走着,核心战略bet或路线已经发生了分化

OpenAI是frontier team做出了O系列,frontier team的老大Mark Chen现在成为了仅次于Sam/Greg的三号人物

硅谷的认知分歧?这个问题本质是:智能重要,还是流量重要?

我有点担心OpenAI过早的走向一家消费互联网公司

30:18 一位AGI原教旨主义眼中的AGI roadmap(路线图)

智能提升是唯一主线,智能本身就是最大应用

今天回头看,ChatGPT只是这座高山山脚的第一站,后面还有很多个山头:Coding、Coding Agent、General Agent、AI for Science、Robotics

ChatGPT只是前菜,接下来Agent才是正餐

今天还是围绕智能主线,最重要的是push智能能力往上走,做应用的要构建一个环境或容器,承接研究溢出的智能红利

文生图有可能是OpenAI烟雾弹

今天做Robotics Foundation model/Research的做法不够本质

26/27年可能是AI for Science爆发的时间点

43:00 智能的本质是什么?

这是个极好的问题——大家有想法可以打在评论区:)

人类进化就3个关键词:1. 生存,2. 探索,3. 自动化

智能进步的衡量标志是什么?

一个Chatbot对话可能消耗几千个Token,一个Perplexity搜索大概几十K Token,但一个Manus平均可能要70-80万个Token

48:03 Agent是新物种

“智能水平离AGI越近,可能就越像宇宙大爆炸”

Agent落地最关键的3个能力:1. Long Context reasoning, 2. Tool use, 3. Instruction following指令遵循

AGI接下来的milestone是long-term memory,这个会取代long context

55:49 未来范式级的路线,可能Online Learning是一个

如果说未来还有范式级的路线,可能Online Learning是一个,让模型可以在线自主探索并学习

对GPU或者英伟达叙事影响有多大?

怎么看待贾扬清的公司(Lepton AI)被卖掉?英伟达在下一盘什么大棋?

01:02:45 模型与产品的关系、壁垒和商业模式

今天定价为什么20美元,是copy SaaS的定价吗?但SaaS不会消耗大量token

裸模型发布的时代即将结束?形成壁垒主要是两个:一是成为Cloud,OpenAI自己变成微软的Azure Cloud;二是成为OS,要有生态,后面打造新的Operating System

投资人怎么投AI应用?

模型长期会把产品吃掉吗?本质是,feature system vs Learning system哪个更快

Perplexity/Cursor/Manus都是“模型的盗火者”

01:15:11 全球大模型公司竞争格局和全球AI产品公司

GPT-4.5算不算领先?GPT-5为什么一直在跳票?OpenAI有没有失败的风险?

怎么看待OpenAI支持了Anthropic的MCP协议?OpenAI和微软为什么会有裂痕?分家对微软影响多大?

Manus vs Perplexity,都是执行力很强的团队,被称作“套壳之王”

理想的投资组合:25% Anthropic, 25% Bytedance, 10% OpenAI, 10% Mira Thinking Machine Lab, 5% SSI, 5% Cursor, 5% Manus, 另外15%还没想好

如果DeepSeek融资,我会放基金的25%

01:54:32中美格局:如何跨越地缘封锁

科技投资不是靠“混”能混出结果的,很多VC investor到处混圈子,其实没意义,还是得靠“创造”

【全球大模型季报】系列

2023年:口述全球大模型这一年:人类千亿科学豪赌与参差的中美景观

2024年Q1:和广密聊AGI大基建时代:电+芯片=产出智能

2024年Q2:口述全球大模型这半年:Perplexity突然火爆和尚未爆发的AI应用生态

2024年Q3:AGI范式大转移:和广密预言草莓、OpenAI o1和self-play RL

2024年Q4:大模型季报年终特辑:和广密预言LLM产品超越Google之路

【免责声明】

单纯内容分享,不作为投资建议。

【更多信息】

联络我们:微博@张小珺-Benita,小红书@张小珺

更多信息欢迎关注公众号:张小珺

展开Show Notes
置顶
“如果一个季度只收听一期关于全球大模型的播客,希望是这个系列。”🚀🚀
奥特曼:从第一期听到现在,希望能持续输出
晨萱-语迟者说:最近听到一个把英文播客转化为中文的播客,自动翻译成中文,甚至声音也是外国人的原音,就像我们都看过的郭德纲用英文说相声那个。听着马斯克,山姆奥特曼的声音说中文还真有意思。要是把小珺的播客也这样转化一下,听小珺和嘉宾说英文一定也很有意思
LBeP
LBeP
8天前
跟广密很有共鸣,也非常理解评论里很多人觉得“虚”、“浮夸”。从23年开始,跟周围人迅速达成共识,llm这一波必须要跟。但在将近两年的探索磨合过程中,关于怎么跟、什么适合我们做、始终有较大分歧。事实和推演是容易对齐的,但在价值层面,在这样一个百年一遇的技术突破面前,即使对未来的推演基本相同,人和人内心做事的源动力是不同的,想bet的东西是不同的。到最后,只能是每个人根据自己的“我觉得”去下注。
Dwwin
Dwwin
7天前
每句话都是“我觉得”。那这些观点的可靠性在哪里呢。既然叫季报,不应该以事实性报告为主吗
虾叔:+100 全是用“我觉得”来论证“我觉得”... 不知道听一个非核心公司从业者的一堆个人观点有啥意义...
Ragn:完了回不去了 现在听到的全是那三个字..
3条回复
这一期非常失水准,嘉宾仗着一知半解的技术认知,一本正经的瞎侃。不仅没价值,还很容易误导人,严肃的节目还是请专业的人吧。
罗锴
罗锴
8天前
12:16 非常认同广密 2 年内实现 AGI 的想法,同时又非常不认同 2 年内实现 AGI 的想法,核心在于大家是如何认定 AGI 的。

如果把和人类一样操作电脑并强于 99% 普通人,简单说让我讲清楚 Excel 各种公式能做什么,怎么用?我真心做不到,这种信息的理解,LLMs 确实是轻而易举…在这个层面上说 AI Agent 的操作能力进化AGI 那是必然。

但是从另外对实现智能路径上来看,实现早期行业从业者提出的HLMI(人类水平的机器智能)又离我们还非常遥远。

非专业人士,讲点民科的想法,请大家批评。当代计算机是冯德伊曼架构下的电脑计算泛式,这种 CPU,硬盘,内存分离的硬件架构没有办法做到真正的同时计算和同时记录。这才是最根本的限制。

想要学习人类,实真正的 HLMI,应该模仿人类的认知机制,在存算一体的计算机硬件架构才是起飞的根本。存算一体才能不断让大模型(大脑)实时刷新信息。目前所有的 LLMs 都是单次训练逻辑,而不能实时训练。这点不突破,就不能解决幻觉问题,最重要也不能实现 AGI。在现有计算机架构下换新算法,或者加上新的器官,比如眼睛(视觉信息)都是局部优化,不会带来根本变化。

没有真正的信息反馈和理解,目前的 LLMs 架构最后也只是就像是调用瞬时记忆和肌肉反应,即便在 Agent 设计上做了优化,用了专门的记事本来写入关键信息,但是其实每次计算并没有将信息在 LLMs 中内化,所以信息之间的关联和涌现必然是非常局限的,如果有用,我觉得也就是打开了 1% 的能力。LLMs 真正的魔法诞生于最多信息之间的链接,发现高维空间的关联度。不能实时的修订模型信息就把人类思维中最重要的贝叶斯能力给切除了。所以智能不能成长,只靠出生智能定终身(每次训练定智能)。
HD106994s:讲的挺好的,多讲讲~
布什拉:有意思的说法,请问有更多能说一说吗 有关人类大脑机制
3条回复
这一期嘉宾的逻辑比较一般啊
这期还真印证了我的一个偏见:把“第一性原理”挂嘴边的,大多缺点意思。
别叫我何老师:in name of “第一性原理”🤭
GOOD棒
GOOD棒
8天前
🈶逐字稿 笔记等我做好后再分享🍻
🔗:https://pan.baidu.com/s/1WvsYdXG-GNdG4RYT7PUKew?pwd=sw67
通篇都是我觉得 不知道的 采访的嘉宾是不知道自己会幻说说的大模型
HD325359c
HD325359c
7天前
听到压缩方式这里蚌埠住了。本期嘉宾说宏观的话题还行,细节的技术话题就有点蜻蜓点水的味道了。
ChaosMars
ChaosMars
8天前
AGI是否抵达取决于观察者的智力,观察者的智力越低越容易观察到AGI的实现。
晨萱-语迟者说:AGI 根本实现不了的,人连人类自身的智能是咋回事还没摸到皮毛呢。过往这些在计算机行业的研究都是巫医跳大神似的展现,与人的智能无关。真要研究人的智能,是生物化学,生物学,神经学,社会学,心理学等很多领域联合才能去探索的,暂时跟计算机科学无关的
感觉哪里怪怪的:你好,我是来自太阳幼儿园的四岁小朋友壮壮,我觉得AGI已经实现啦!
智能的本质
智能常被误解为一台精密仪器的运算能力,或是装满知识图谱的数据库。拆解智能的骨骼结构,会发现真正的内核不是储存与计算,而是一个动态的信息压缩系统。婴儿学习走路时,并不需要理解牛顿定律的数学公式,却能将重力、摩擦力等物理规则压缩成身体记忆;围棋选手无需穷举所有棋局可能,却能通过直觉判断落子的价值。这种将复杂世界简化为可操作模型的底层能力,才是智能的原始燃料。
这种压缩系统的运作依赖三个齿轮的咬合:模式识别器从混沌中提取规律,预测引擎根据规律投射未来,反馈调节阀用现实结果校准认知偏差。当猎豹在草原上追击羚羊,它的神经元并非在计算微分方程,而是在持续重构猎物的运动轨迹预测模型,通过肌肉收缩的实时反馈调整奔跑角度。这种在动态中建立认知框架、又在动态中推翻框架的能力,让智能区别于任何静态的知识图谱。

从哲学视角看,智能的本质是存在主义式的情境编织术。海德格尔所说的"在世存在"在此具象化:当盲人用手杖触碰地面,手杖的震动频率与大脑神经形成新的感知回路,工具与感官的边界在此消融。智能从来不是孤立的大脑活动,而是生命体与环境共同谱写的交响乐。就像深海章鱼用皮肤细胞思考、用腕足记忆,其认知疆域早已突破神经中枢的物理局限,将整个海洋变成了思维的外延器官。

怀特海的"过程哲学"在此得到验证:智能并非某种可被封装的状态,而是持续发生的认知重构事件。当自动驾驶系统在暴雨中突然打滑,轮胎与路面的摩擦力数据瞬间重组了它的驾驶模型,这种在不确定中自我迭代的生存策略,与原始细胞在寒武纪海洋中的适应性进化共享着相同的底层逻辑——用动态认知捕捉流动的真实,在永恒的变化中雕刻出暂时的秩序。
HD226515d:很有启迪!想请问一下这段话的出处
HD226515d:😂我还去问ds谁写的,它说找不到
7条回复
嘉宾太高看 manus 了,让我开始怀疑嘉宾的专业性了
太虚了,还是为了manus做宣传
Alance
Alance
8天前
全集没提过阿里云😅
欢乐马_U1yj:提到字节的地方换成阿里也没问题呀 ,人才 钱 云
26:12 deepseek也部分证明了这一点
Pulin
Pulin
8天前
不理解他对字节的迷之信仰
感觉哪里怪怪的:他对字节的期望全是应然,并没有实然。说的是他觉得字节应当怎样,而不是字节真的会那样。现实中,字节就是个缺乏长期主义的从高层到基层都热爱ab测和kpi的公司而已,承担不了他的期望
liu_mlfo:+1
3条回复
仲泉
仲泉
7天前
相信AGI,却又不投伊利亚,投一家更可能被收购的;又希望openai不要商业化,敢情冤大头都让别人当啊
朱有以:希望有个冤大头在前面披荆斩棘,以便在后面吃肉喝汤
嘉宾在自说自话,聊AGI有啥意义
Yang_0bpu
Yang_0bpu
8天前
太阳照常升起这个片头一起,感觉太对了
晨萱-语迟者说:就是未来的世界与现在不同。未来做的事情也与现在不同,甚至未来做事的人也不是现在这批,现在的理想主义者都会是殉道者,但也很伟大😜