我们一直在关注国外的一些 AI 产品,从大模型到应用层莫不如此,今天我们决定好好讨论一下国产大模型产品 Kimi。Kimi 的200万上下文实在太炸裂了,这么大的 “内存” 能不能改变 AI 应用开发生态?又是否会逐渐淘汰现在主流的 RAG 技术栈呢?除了一系列的技术疑问之外,还有产品、商业、估值等等,都值得我们去认真了解一下这个国产大模型领域的 “当红炸子鸡”。 如果大家有更多关于 Kimi 的使用经验和体验,记得在我们评论区分享。
(本期节目没有收钱🥹🥹🥹)
欢迎收听本期节目,更多内容信息和时间线参考下文的硬地笔记。
本期 Sponsors
Special Sponsor: Podwise.ai 👑
硬地笔记
00:00:04 Kimi的200万上下文窗口:全球领先的差异化优势
00:01:59 长上下文在应用开发中的优势
00:10:28 大模型上下文复杂性与训练计算复杂度
00:14:10 Kimi的联网功能令人惊叹
00:17:09 Kimi的爆火:超出预期的体验和2C路线的优势
00:20:51 大模型在B端的落地场景有限,2C 或为更好的选择
00:25:45 C端验证,B端落地的AI产品发展路径
00:28:44 Kimi融资背后的投资关系与组织挑战
00:32:37 RAG技术:检索增强与外部知识加载
00:41:04 大模型与检索式生成技术的互补关系
00:43:33 Kimi估值25亿美金,AI公司估值溢价明显
00:47:03 中国AI巨头之争:本土市场利弊与全球化挑战
硬地新知
- AGI: AGI是人工智能(Artificial General Intelligence)的缩写,指的是具有与人类智能相等或超过的智能水平的人工智能系统。AGI具有广泛的学习能力和适应能力,能够在各种复杂任务上表现优秀。
- ARR: ARR是Annual Recurring Revenue的缩写,指的是一年内重复发生的收入。在讨论企业的经济情况或者估值时,ARR是一个重要指标,可以帮助衡量企业的稳定性和增长潜力。
- RAG: RAG是Retrieval-Augmented Generation的缩写,是一种基于检索式生成的语言模型。RAG模型将检索和生成两个任务结合起来,能够根据检索到的信息生成相应的文本,提高文本生成的准确性和可控性。
- Transformer XL: Transformer XL是一种基于Transformer架构的模型,专门用于处理超长上下文的任务。Transformer XL通过引入相对位置编码和循环机制,能够更好地处理长文本序列,提高模型在超长上下文任务中的表现。
- 二次方关系: 二次方关系是数学中的一个重要概念,指的是两个变量之间的关系可以表示为一个二次方程。二次方关系经常出现在科学、工程等领域的建模和分析中,对于研究变量之间的复杂关系非常有用。
欢迎关注我们
- 官网:hardhacker.com
- Discord 社区:discord.com
- 用爱发电不容易,请我们喝咖啡☕️:afdian.net
- 公众号/小红书:硬地骇客
- 商务合作:hardhackerlabs@gmail.com