12 月 26
Luke FanAIGC 3D Environments, 3D Worlds, AI Godmother, AI教母, AI教育改革, Computer Vision, Education, Fei-Fei Li, Generative AI, Human-AI Interaction, ImageNet, Physical World Reasoning, Robotics, Spatial Intelligence, Spatial Reasoning, Visual Intelligence, World Labs, World Models, 具身智能, 批判性思维, 机器人, 李飞飞, 生成式AI, 空间智能, 自动驾驶
信仰人类的AI教母李飞飞的最新访谈,都说了些什么?
大家好,欢迎收听“老范讲故事”的YouTube频道。本月钛媒体跟李飞飞做了一次访谈,目前是把信息放出来了,还是值得大家好好去思考一下的。
李飞飞因为做ImageNet,也就是收集了大量的图片去进行AI训练,被称为“AI教母”。但是她却讲到说:“AI只是工具,我信仰的是人类,不是AI。”
这个访谈还是很长的,我们分几块来讲。第一个是“AI就是一个工具”;然后咱们讲一下李飞飞对于教育的一些看法,因为她毕竟是一位大学教授嘛;然后是李飞飞对于机器人的看法,最近各种人形机器人公司都准备去上市了,现在看看李飞飞怎么去讲机器人;最后是李飞飞自己的World Labs(世界实验室)公司,她们所生成的模型到底是在做什么。
一、AI 再强也是工具,方向盘需在人类手中
首先,她讲到了说AI再强也是工具,方向盘必须在人类手里面。她为什么会去强调这一件事情?因为有很多人已经躺平了,不停地有人告诉你说“一键生成”、“点一下就得到”,这个实际上就是已经准备去放手了。所以李飞飞在反复强调,AI不能让它去决定你的生活,你必须要去掌握方向盘。如果不掌握方向盘的话,AI可能真的会去替代人类。
当然了,工具也是有两面性的,所有的工具都是双刃剑。但是她讲到说,两种极端对待AI的方式都是不理性的。哪两种呢?
- 第一种是只发展不限制;
- 另外一种就是只去讲伦理,不发展了。
像欧洲现在就属于是更多地强调伦理、各种限制;而美国这边呢,可能更多的是在快马加鞭地往前跑,各种的限制现在变得少很多。说这两种思路都是有问题的。
她讲到说我们过往使用的这些工具,包括火、斧子、核弹、生物技术等等,都是工具。这些东西只要我们用好了,都是会造福于人类的;但是呢,也都会给我们造成一定的伤害。AI会变得越来越强大,但是责任不应该丢给AI。
More
11 月 13
Luke FanAIGC 4D空间智能, AI发展方向, AI教母, AI的下一个前沿, Fei-Fei Li, LLM局限性, World Labs, 世界模型, 交互式AI, 人工智能, 具身智能, 内容创作, 大型语言模型, 推理, 时序一致性, 机器人技术, 李飞飞, 物理世界, 物理感知, 状态预测, 生成式AI, 科学发现, 科技评论, 空间智能, 视频生成, 计算机视觉
李飞飞的万字长文,讲述空间智能的未来
大家好,欢迎收听老范讲故事的YouTube频道。
李飞飞呢,最近发了一篇文章,指出AI的下一个方向。AI的下一个发展方向就是空间智能。这个文章呢是11月11日发表的,非常非常长,上万字。标题呢是《从词语到世界:空间智能是AI的下一个前沿》。教授的长文,读起来还是稍微有一点点吃力,我还是认真地把整个文章读完了。教授呢,未必能够准确预测未来,那是算命先生的工作。但是,教授对未来的预测,还是值得认真研读一下的,特别是这位教授,还是当前AI浪潮的开拓者之一。
文章的结构之美:值得学习的写作范本
第一个特点就是非常的工整。她的文章结构,大家需要去学习一下。哪怕你说我看不懂这文章说什么,还是应该学习一下人家文章怎么写的。上来第一件事是提出问题:现在有些什么样的问题?然后呢,是核心概念的一些解释,对吧?啥叫空间智能?再往后呢,是方法论的一个架构:我准备怎么干?然后呢,是技术实施的一些细节和方法。最后呢,是应用的路径:我这个实施了以后能干嘛使?它是这样的一个完整架构。
每一个大标题下面呢,会有3到5个小标题,每个小标题下面,均匀地分布着描述和说明。它不会像有些人写文章,在某一个小标题下写非常长的内容,其它的显得干巴巴的,不会是这样的,很均匀。学习一下教授的写作方法,还是非常非常有价值的。
More
2 月 11
Luke FanAIGC, DeepSeek大模型 029筛选, 16张H100显卡, 32B模型, 50美金AI训练, 59, AI公司裁员, AI商业化, AI小公司机会, AI开发路径, AI成本控制, AI技术突破, AI推理模型, AI教母, AI模型蒸馏, AI测试标准, AI用户粘度, AI科学方法, AI筛选问题, AI行业未来, AI行业竞争, AI行业落地, AI领域定制, AI领域案例, ChatGPT O1, ChatGPT对比, DeepSeek R1, Gemini 2.0 Flash thinking, Gemini数据, S1K模型, Together平台, Together平台训练, 中国AI创新, 人工智能创新, 低成本AI, 可感知AI效果, 大模型与小模型, 大模型优化, 大模型应用, 小型模型训练, 小模型训练, 开源微调模型, 微调模型, 推理效率提升, 推理时间优化, 推理步数评估, 收敛性评估, 教育AI模型, 数据训练优化, 斯坦福大学, 普林斯顿大学, 李飞飞, 法律AI模型, 用户定制化AI, 电子工程博士, 硅基流动, 硅基流动平台, 置信度评估, 蒸馏模型方法, 蒸馏训练技术, 蒸馏问题技术, 财务AI模型, 通义千问, 问题筛选技术, 预算强制法, 高效AI解决方案, 高效AI训练
大家好!欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲李飞飞的S1K模型。50美金成本超越DeepSeek R1和ChatGPT O1。
首先呢,DeepSeek到底是怎么震惊全球的?就是因为训练成本低。他的训练成本是OpenAI的3%,所以震惊了全球。
那么现在李飞飞的S1K模型,16张H100的显卡,跑了26分钟跑完了,拿到了一个32B的模型。多项测试超越了DeepSeek R1和GPTO1。
大家要注意,评测大模型呢,它有很多很多测试项。一般我们说基本上达到什么什么水平,就属于叫互有伯仲。有些你强点,有些他强点。原来大家都超不过GPT 4O,是因为只能接近它,距离它的全项指标都有差距。现在的话,大家就已经基本上可以达到GPT 4o的水平了。
More