DeepSeek现象引发中文圈狂热:开源的胜利还是遥遥领先的争议?
1 月 28
AIGC, DeepSeek大模型 AI Agent公司, AI Agent生态, AIGC领域, AI云计算, AI产业标准, AI协作方式, AI大模型, AI开源, AI开源项目, AI推理能力, AI数据偏见, AI显卡优化, AI显卡禁令, AI研发成本, AI蒸馏微调, AI闭源模型, AMD MI 300, AMD显卡兼容, Anthropic压力, Claude模型, DeepSeek, DeepSeek R1, Deepseek V3, DeepSeek代码, DeepSeek原创性, DeepSeek影响, DeepSeek成果, DeepSeek数据来源, DeepSeek美国市场, DeepSeek英文论文, Deepseek训练成本, DeepSeek论文, Huggingface, Kimi 1.5, Meta AI发展计划, Meta震惊, Minimax 01, OpenAI竞争, Oracle云计算, PyTorch开源工具, 中文社交媒体, 中美AI竞争, 中美科技博弈, 亚马逊AI, 人工智能创新, 华为AI标准, 大模型训练路径, 字节跳动AI, 开源模式, 开源胜利, 微软AI, 英伟达显卡, 谷歌AI, 谷歌AI研究, 豆包1.5, 通义千问, 闭源与开源 DeepSeek现象引发中文圈狂热:开源的胜利还是遥遥领先的争议?已关闭评论
DeepSeek突然出圈,引发了中文圈的争吵。大家好,欢迎收听老范讲故事的YouTube频道。
DeepSeek在前面,我们已经出了一期视频,去讲它到底是怎么回事了。那么,DeepSeek最近肯定是更加的出圈。首先,DeepSeek V3,据说训练成本只有557万美金,震惊了扎克伯格,震惊了Meta。Meta说:“我们有好多的老大,他们的年薪都超过557万美金了。人家训练了个模型才用了557万美金,那我花了这么多钱去组建AI团队,花了这么多钱去囤显卡,是不是亏了?”现在就有这样的声音出来。
而且,最新的DeepSeek R1,也就是它的推理模型,推理能力已经接近o1了。蒸馏微调出来的这些小模型,已经在很多领域里头超越了o1 Mini。在这儿多补充一句,什么叫蒸馏微调的小模型?像我的电脑上,也是跑了一个DeepSeek R1-32B的模型。这个模型是怎么来的?它实际上是由DeepSeek R1去输出数据,然后拿输出的数据再去调通义千问2.5-32B的这个模型,最后得到的结果。这就是DeepSeek R1-32B,他在我的电脑上做各种推理,效果相当不错。
More