ep120 第一顶流DeepSeek,到底牛逼在哪里?朝十晚久

ep120 第一顶流DeepSeek,到底牛逼在哪里?

54分钟 ·
播放数422
·
评论数8

DeepSeek已经炸了,已经破圈了。本期节目,我们尝试挑战一下用大白话讲述一下DeepSeek模型背后的真实。DeepSeek V3 进化 DeepSeek R1-Zero 进化 DeepSeek R1 ! 幻方到底做了哪些技术创新和奇技淫巧,让DeepSeek突然爆发成为全球顶流?所谓的“多快好省”体现在具体什么地方?

如果你不想再人云亦云地复读DeepSeek模型花钱少,那么听一听本期节目包收获的。

主播:松阴

节目开始前,请大家加入听友群(加群方法见播客介绍页),以及帮忙多多转发!

01:47 当我们谈论DeepSeek,我们到底在谈论什么模型?

04:46 DeepSeek的训练成本500万美元?!

08:59 美国业界在V3刚出的时候就注意到了

09:40 MoE 混合专家模型

11:50 门控网络:混合专家模型里的“分检”

16:23 多头潜在注意力 MLA

18:36 FP8的大模型实现

22:08 DeepSeek到底有1万张A100显卡吗?

26:00 R1-Zero的Zero来自于Alpha-Zero

27:00 强化学习 vs 监督学习

30:04 GRPO(Group Robust Preference Optimization ) vs  PPO(Proximal Policy Optimization)

32:33 训练模板

34:40 R1-Zero的缺点

36:01 训练一个R1模型

38:30 R1训练的第二阶段

40:39 用R1蒸馏小模型

42:18 什么是“知识蒸馏”呢?软标签/硬标签/温度

45:08 蒸馏 vs 强化学习

48:33 吐槽一下:稳定性 and 黑话太多

----------------分割线------------

阅读材料

V3的训练成本比较

强化学习中的GRPO和PPO

R1-Zero的训练模版

R1的二阶段训练总过程

arxiv.org 

DeepSeek R1 是怎么训练出来的?- R1 论文精读

万字赏析DeepSeek创造之美:DeepSeek R1 是怎样炼成的?

一文看懂MoE混合专家大模型

展开Show Notes
昨晚最新刷到,微信搜索正在接入 DeepSeek (灰度)👀
六本木:我也看到了!百度哭晕了吧要
有没有可能再出一期当前大模型与各个产业的结合应用以及进一步落地的发展趋势呀?
大王圣代
:
看有没有时间准备吧🤣
HD49409y
HD49409y
2025.2.16
希望听到类似更多技术干货节目,谢谢!
大王圣代
:
感谢支持
很有收获!感谢主播