58: 光年之外联创再出发,与袁进辉聊 AI Infra 到底做什么?| AI 大爆炸

58: 光年之外联创再出发,与袁进辉聊 AI Infra 到底做什么?| AI 大爆炸

69分钟 ·
播放数15409
·
评论数85

本期是《晚点聊》「AI 大爆炸」系列第一期节目。

在这个系列里,我们既关注一个个 AI 公司或产品的创业和开发故事,也希望由此逐渐覆盖 AI 版图的各个面向,与关注 AI 热潮的听众一起探讨和见证这次新技术变革激起的浪涌。

这期节目中,曼祺邀请了一位老朋友,AI 领域的一位资深从业者和连续创业者,袁进辉。

袁进辉在 2016 年创立一流科技(OneFlow),2023 年加入光年之外任联合创始人,2023 年 6 月光年之外被美团收购后,袁进辉再次创业,成立硅基流动(SiliconFlow)。

在宣布这次创业的朋友圈中,袁进辉的配文是:“过去 15 年不算顺利,屡败屡战。”

“屡败屡战”与他创业以来一直所在的 AI Infra (AI 基础软件)领域在中国市场的状态有关。OneFlow 当年在 AI Infra 中做服务 AI 训练(模型的生产)的框架,SiliconFlow 则是做服务大模型推理(模型的应用)的框架。

AI 框架简单来说是连接底层硬件算力层和软件模型层之间的一层系统软件,它类似模型开发者们使用的操作系统。

纯软模式在中国的商业化和付费意愿一直是行业难题,这也是袁进辉此次创业想努力跑通的部分。

本期节目我们聊了:
第一段创业历程回顾 & AI Infra 是做什么?
01:51 - 梦想当科学家,2008 年博士后时选了一条激进的路,做机器学习和脑科学交叉学科研究。
06:10 - 当时深度学习还没热,未能转教职,来到工业界。在微软亚研院开发出 LightLDA(一种主题模型),这是互联网搜推广的核心系统之一,被快手等公司使用。
12:31 - 2016 年开始开发 AI 训练框架。当时 Google 的 TensorFlow 等框架已出现,如何差异化?
15:03 - 袁进辉的反共识判断:未来模型会变得非常大,需要新系统,创立 OneFlow。
18:27 - 再次创业,做硅基流动:看到大模型推理需求会超过训练,也能避免这支团队分散。

成立硅基流动,瞄准大模型推理需求
26:34 -“我们进光年的时候是40人,出来的时候是35人。”
28:42 - 业务重心:从训练转向推理,专注于大模型的推理部署。
36:00 - 商业模式:全球化战略,面向海外市场;在国内则要绑定客服愿意付费的东西,不能只有软件。
39:09 - 国内商业化的难度:需要创造性的策略和产品形态。

AI基础设施的未来趋势与机遇
51:26 - 技术不会一直是壁垒,算法尤其传播得快。
53:44 - 工程能力可能更关键。因为一个算法上的好点子,往往被执行后 ROI 极高,所以大家都会做;工程优化则是每个单点的 ROI 都不大,需要日积月累,到最后真正会做的团队非常少。
56:18 - 期待大模型超级应用,认为它们大概率不来自现在的大模型公司。
58:12 -成为"张一鸣"背后的人?但张一鸣背后没有人——超级应用未来自己做 AI Infra 怎么办?
59:28 - 软件层面的竞争将加剧,但顶尖供应商将获得大回报。
01:04:43-在清华科技园吃饺子听到邻桌议论:“OneFlow 技术挺好……还不是被收购,没赚钱."希望这次可以成为一个更好的范例。

相关阅读:
《晚点独家丨袁进辉新公司获创新工场、王慧文等 5000 万投资》
《硅基流动完成5000万元天使轮融资》

本期节目中出现的产品、人物等名词:
·一批 AI 训练框架:TensorFlow(Google)、PyTorch(Meta)、PaddlePaddle(百度)、PAI(阿里)、Mindspore(华为)。
·两个当前最主流的开源大模型推理框架:TensorRT-LLM(英伟达)、vLLM(伯克利大学)。
·LightLDA:袁进辉在微软亚研院开发的主题模型训练算法和系统。
·Geoffrey Hinton,图灵奖获得者,被认为是深度学习之父。
·张钹,清华大学计算机系教授、中科院院士。
·李飞飞,斯坦福大学教授,美国工程院院士。
·李兆平,计算神经科学专家。
·邢波(Eric Xing),穆罕默德·本·扎耶德人工智能大学校长。
·汪玉,清华大学电子工程系主任,创立了无问芯穹。
·尤洋,新加坡国立大学教授,创立了潞晨科技。
·贾扬清,AI 训练框架 Caffe 作者之一,现在创立了 Lepton AI。
·李沐、陈天奇,AI 训练框架 MXNet 作者。李沐曾担任亚马逊首席科学家,现在创立了 Boson.ai;陈天奇参与创办了 OctoAI。

登场人物:
袁进辉,硅基流动创始人。联系可加微信:SiliconFlow01
程曼祺,晚点科技报道负责人。即刻:程曼祺 _ 火柴Q
贺乾明,晚点科技报道作者。即刻:我是 chiming

剪辑:甜食

展开Show Notes
sanbai_
sanbai_
2024.1.25
才听了一半,就忍不住来赞一下嘉宾。
袁博兼具科学,工程和商业的三重视野,讲复杂的东西慢条斯理,节目对我很有启发!
也感谢晚点聊带来的精彩节目👏
sanbai_:大伙也可以看看以前 oneflow 的公众号,有很多模型和推理加速的深度文章。最后遥祝袁博新公司🚀。
感叹一下主持人曼祺的问题都很犀利,有的问题我作为听众听着都觉得从心理上可能很难回答,很容易让人产生一种被质疑的感觉,而这一点被主持人平淡的声音弥补了,听着有种她是真的单纯好奇提问的感觉
曼祺_MatchQ
:
我相信嘉宾们平时也被问得挺多的,个个久经沙场😁
Lily_Letitbe:哇哇居然回复我啦,表白一下你真的很厉害很犀利!
3条回复
shuxs
shuxs
2024.1.25
1. 会开源吗?2. 是专注做推理加速,还是也会做RAG和agent等上层工具链?3. Pytorch的成功也源自于Facebook的影响力,能得到学术界的广泛使用,帮助建立起生态和壁垒,作为国内的框架,相比Berkeley开源的vLLM,在影响力这一块有先天的劣势,怎么竞争?
袁进辉:谢谢关注哈,我是袁进辉。1,会开源;2,会通过和其它项目合作解决RAG和Agent,如果发现有必须我们解决的问题,也会去做;3. 我不认为存在先天的劣势,大模型细分领域的产品是23年才开始出现的,竞争的格局还没有收敛,目前市场上也没有那个产品表现出绝对的竞争力,以及充分满足各个场景不同需求用户的能力,最早的时候TGI表现很好,但是目前无论是产品的完成度还是社区的活跃度都被vllm超越了,而更晚发布的 trt-llm 各种特性迭代的速度也很快,在一些场景下,性能表现也很突出,在 pytorch 成为事实标准之前,也是经历的一系列深度学习框架的迭代的。目前,在大模型的机会出现的时候,可以说大家是在同一个起跑线上的,不仅要看谁先出发一点点,还要看谁能在技术和产品上保持先进性,谁能更好的解决用户在不同场景下的需求,才是影响力的根本来源。
qqqqqn:55:17 这点说的太好了,工程问题是通过时间积累出来的。
4条回复
1. 推理比训练的市场更大。客户集中度高,可提升的价值幅度有限(训练是降本,推理是提升业务价值),生意也不持续(不会有人一直训模型,但推理每天都在发生)事实证明也是这样。回想起来当时在字节做高速训练工具,真的不算一个好生意。
2. 国内和海外tob市场逻辑完全不同。海外单点能力强就行,国内就要大而全,面面俱到。而且出于观念和其他原因,国内纯卖软件很难,要绑定硬件/其他。反正也没听出嘉宾有啥新的解法。(听到这我这个to b老兵泪牛满面)
3. 大模型的壁垒并不高。算法,算力,工程,数据,技术上不是什么高深莫测的。唯一有长期壁垒的可能是工程能力。这点相信只有我们这些在大厂里做过AI的才知道,这点有多重要。最简单的,一个公有云的模型要做私有化部署,这里面涉及的种种基建能力,没有踩过坑很难积累。
4. 大模型超级应用大概率不会在这些大模型公司里诞生。这些公司里都是研发技术导向的,而下一个张小龙,张一鸣是产品导向的。
5. 大模型带来模型通用性(Transformer)的普及,进而降低厂商对软件生态的要求,从而导致玩家的分散,更有利于行业。
6. 能感受得到嘉宾作为一个搞技术的,在经历了几次创业之后,想法的成熟。理想固然重要,但只有取得了世俗的成功,大家的关注之后才更好让人相信自己坚持的理念。
晚点真的厉害,主持人深知行业信息,连字节AML啥的都知道,提问犀利,嘉宾回答的务实。真比那些VC投资人尬吹AI信息密度和质量高多了。
浩Sean
浩Sean
2024.1.25
问得好,答得好,有深度,学习了!
CiaoCiaoCiao
CiaoCiaoCiao
2024.1.26
1:05:41 "People will never forget how you make them feel." 听到这里有点感动,特别是嘉宾老师说“是不是做了一个不好的范例”的时候。相信只有真正觉得自己“在做一件比自己更大的事”的时候,才会有这样的感悟。

有时候这种感性上的因素,是促使我们跨出某一步的“临门一脚”。如果有更多技术人有这样的“觉醒”和“执念”,不知道国内to B软件行业是否会变得更好一些。
天明了
天明了
2024.1.28
23:32 袁老师不容易的。在客户层面上,大、中必定不愿受制于人。在底层软硬层面,厂商必定不愿意暴露自己细节,sdk runtime&driver&chip细节闭源,仰人鼻息,长久稳定难以保证。形势决定了上下两难,只能夹缝中求生存。出海战略也不太可取,美帝不可能放任国人做大。国内战略,如果能深度绑定上游客户,在生态中培养出几个拔尖产品,互相依存,形成合力,或许能走出来。ps:国内纯软件付费环境还可以的,但saas不太行。 曼祺很棒,问题很有深度很用心,点赞。
朴珞
朴珞
2024.1.27
39:59 会和做大模型芯片合作吗?
我大概也是16开始做推理引擎,从caffe到tf再到py是一个谁更贴近算法灵活谁更受欢迎模式。大模型出来后,逻辑变成了谁更有执行效率谁更受欢迎模式。对infra要求由适宜性变成了高效性,适配繁杂可以细水长流,高效性可就那么几把刷子且收益更多是依赖芯片和带宽本身。现在看大模型推理引擎是个不错生意是因为刚刚兴起,但是窗口期可能会非常短后迅速卷到拼硬件集群能力,让推理引擎会变得很薄薄一层。如果不去绑定硬件可能不会有“护城河”,但是绑了硬件会很容易成为硬件附属,免不了被哪硬件被收购。(cnn时代做类似事情的深鉴科技18年被赛灵思收购是这个逻辑)找到硬件大树深绑定,两年内出手卖掉,时间再长就贬值了。不过很巧的是之前深鉴科技人现在出来创业好像是无限苍穹啥的,估计还在走一遍老套路
袁进辉:“太薄”这可能是共识,不过这个共识是不全面的,要从竞争中脱颖而出,肯定还是要有一些反共识的认知
耶律阿保哥:哈哈 深鉴那帮人都财务自由了 出来各自又搞了一波事情
lililiiy
lililiiy
2024.2.03
嘉宾把自己伟大的勇毅的尝试说成“屡败屡战”真是太太太谦虚了,就是因为有这些愿意踏出舒适区愿意拓展边界的尝试才可能带来进步和发展!即使尝试不一定带来“成功”的结果,但是尝试本身就是伟大的成功🫶
Diiiiiiiii
Diiiiiiiii
2024.1.30
这期《晚点聊》,袁进辉老师聊了他“屡败屡战”的 AI 科研、创业史,让人禁不住感叹“顺势而为”、“时势造英雄”的道理。我个人对其中的两个观点比较有兴趣:

1. 未来的 GPU 不可能是英伟达一家独大,芯片领域的竞争格局会从集中到分散。之所以现在 Nvidia 做得好,是因为它有一个良好的软件生态,可以满足各个厂商通用性的需求。但随着 Transformer 架构的稳定,未来对通用性的需求会下降,而对专用性(尤其是纯推理)的需求会上升,而这类相对“简单”的需求,AMD、Intel乃至华为都可以满足。

我个人比较认同这个观点。随着稀缺性的下降,随着技术的民主化,供给端的竞争会更激烈。如今的英伟达很像是二十年前的思科,短期的供不应求推高了股价和毛利(英伟达的毛利率从 5 年前的不到 60%已经提升到74%了),但中长期很难想像一个底层设施将这种毛利率保持下去。

2. 大模型的真正壁垒在于工程,是大量工程 trick 的积累,每一个 trick 的单点 ROI 都不高,但积少成多,最终量变到质变。算力可以靠钱去解决,人才和算法都是可以流通的,只有工程上的积累是需要堆时间才能慢慢成熟。
虾叔
虾叔
2024.1.27
非常喜欢这样作风求实的嘉宾,比起那些商学院出来核心技术和逻辑根本不懂30分质量的判断乌拉乌拉吹10000分的创始人投资人们,他的信息和观点对听众有真正的价值。希望他的公司好运,得到市场的回报。
Stewart-1006:只能说面向的受众不同,那些小白们喜欢
豆Jayce
豆Jayce
2024.1.25
想听kimi(月之暗面)
AS15169
AS15169
2024.1.25
一将功成万骨枯,大浪淘沙后大多数框架是活不下来的,但还是敬佩所有战场上的勇士。个人感觉论商业前景不如偷数据头子梁斌的八友科技。
随本心:哈哈,投数据头子,忍不住笑了
qqqqqn
qqqqqn
2024.1.26
很认同这次嘉宾的观点,无论是过往的总结还是对现状的认知,希望嘉宾最后创业成功,能给整个环境带来正向的鼓励,以及激励后来者
33:28 主持人的问题都很犀利呀。中国的2B业务就是大厂自己做,小厂用不起。。
JoLeung
JoLeung
2024.1.30
agree. 最近正好在想,每家车企的智驾驶算法能力上可能真没太大区别,技术路线也无非那几样。 非要找差异点, 用户/消费者层面看是品牌差异,对构造者而言则是系统工程的差异
Stewart-1006
Stewart-1006
2024.1.26
10年tob老兵哭了
星辰大海的边界:哭了
InnerPeaceNi
InnerPeaceNi
2024.1.26
如果对自己的产品技术足够自信,是不是可以考虑出海来做?国内toB不好卷那
袁进辉:在做出海,海外商业模式和付费意愿的确更好
yetingsky
yetingsky
2024.1.25
既然 llm 的推理是一个很标品的东西,这市场最后是不是都会被云计算厂商吃掉?
袁进辉:这个产品是兵家必争的,狭路相逢勇者胜
11:59 我觉得曼琪是工程师背景吧😄
曼祺_MatchQ
:
借用热门网络浑然不梗,是“学新闻学的”😅
耶律阿保哥:看回复是打工人要上班了 哈哈