苹果智能Siri跳票,Apple Intelligence最大的泡泡吹破了!为iPhone16画的饼,也许要等到iPhone17才能吃上了,研发团队闭门会议泄露,承认跳票”既难看又尴尬”!

苹果智能Siri跳票,Apple Intelligence最大的泡泡吹破了!为iPhone16画的饼,也许要等到iPhone17才能吃上了,研发团队闭门会议泄露,承认跳票”既难看又尴尬”!已关闭评论

苹果智能Siri跳票,内部会议曝光,被评价为既难看又令人尴尬。这到底是怎么回事?大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来跟大家讲一讲,苹果的智能Siri估计要跳票了。

从去年的WWDC上,苹果宣布说我要跟OpenAI合作,推出智能版的Siri,而不是像现在似的,你问它一下,就是我帮你查,还经常查不出来。这种Siri原来说是我计划好了,iOS 18就开始逐步的放功能出来。18出来的时候呢,这个功能其实就没怎么放出来。然后说那我放18.1,18.2,18.3吧。最后说哎算了,我们18.4吧。iOS 18.4的时候,我把这个智能Siri放出来。现在说好像也不行,我们是不是放到iOS 18.5上去。最后可能还要再跳票。

现在呢,国内的Apple Intelligence还完全没有影子呢。国外呢,也在跳票。目前的Apple Intelligence呢,有一些零散的功能已经在国外上线了,包括文字生成、语法更正、智能翻译、图片识别以及照相增强等等。但是在国内的话,我们还要稍微等一等。真正被寄予厚望的其实是AI版Siri。你问它各种问题的时候,就像是GPT-4高级语音功能这样,可以直接去聊天了。但是目前为止,这一块估计是做不出来了。

我的iPhone现在是iOS 18.3.2,下个月应该会升级到iOS 18.4。大概率可以看到一些国内的Apple Intelligence功能。但是智能的Siri估计要到iOS 19了,也就是要到明年了。今年大家应该都看不到这东西了。而且目前以苹果内部开会泄露出来的信息来看的话,明年也未必能看得到这个东西。国内当然我们还可以稍微盼一下,因为至少是跟通义千问合作了,也许有一些零碎功能还可以稍微改善一下体验。目前看呢,应该是阿里负责帮助苹果的Apple Intelligence里面的这个苹果大模型,完成在中国的备案。阿里呢,则负责其云端的功能。我们等下个月更新吧。

今天呢,咱们主要还是要讲一下内部发牢骚曝光的事情。内部闭门会议的信息被泄露出来了。内部说哎我们这东西做不出来,这个事呢既难看又令人尴尬。现在有一点让我感触颇深,就是苹果现在保密的能力比以前差远了。苹果原来是非常非常重视保密的。像我们去谷歌的办公室,去Facebook的办公室,都是很宽松的。你只要进到那院里去,你就可以随便在各个楼里边转悠。

谷歌的Mountain View办公区是一个大的园区,没有墙。你在任何一个楼的楼门口,都有一个叫访客登记机的东西。只要是谷歌员工刷他们的工牌,就可以打开访客登记机,打一张访客证出来,我们就可以挂在胸前,在谷歌的园区里瞎溜达了。

Facebook呢,是要稍微严格一点。它是有一个院子的,有一个大门。你需要让Facebook的员工带你登记,然后进到院子里去。进去了以后呢,就相对来说比较宽松了,里头很多吃的东西,这个是我印象比较深刻的。

但是苹果不一样。苹果那个里头像单元楼一样,就是哪个单元的员工,只能够刷开自己的单元门。一个单元嘛,就像我们这个住宅似的,就竖着这一溜才能上去,旁边那门他进不去。苹果原来是非常非常重视保密的,但是现在内部也在有消息泄露出来。

这位苹果的主管到底在抱怨什么呢?他说功能还没做好就出去吹牛,现在日子到了做不出来了,这怎么办呢?为什么要提前吹牛呢?原因很简单,iPhone 16实在没什么卖点。每次iPhone一发布,就是我们的CPU又升级了,但是你CPU升级了半天,用户没有感知,为什么要去换新的机器?总要找出一个让用户买单的理由来。现在iPhone 16找出来的理由,就是Apple Intelligence。

Siri呢,起了个大早赶了个晚集。很早很早他就说,我们现在可以跟手机聊天了,但是他一直没有赶上大模型这个东风。原因也很简单了,苹果一直跟英伟达有仇。你跟英伟达有仇的公司,你很想去赶AI的大潮,就确实是难一点。直到目前为止,苹果依然坚持跟英伟达井水不犯河水。未来苹果数据中心会用他们的叫M3 Ultra的芯片去布置,而不会去买英伟达的显卡。

Apple Intelligence呢,就是iPhone 16最大的卖点。当然,为了清库存呢,它把我现在用的iPhone 15 Pro Max也加到了Apple Intelligence的许可名单里头去。按道理来说呢,iOS 18.4公布的时候,我就可以开始使用Apple Intelligence的部分功能了。等到iOS 19公布的时候,我应该可以使用智能Siri,但是现在看的话估计比较难了。待会咱们再讲为什么。

那么为什么在现在这个时间点,突然把消息泄露出来呢?刚才讲了,苹果是一个非常非常重视保密的公司,它是所有硅谷公司里头最重视保密的一家公司。为什么是现在跑出来说承认,我们这东西做不出来了?

原因也很简单,iPhone 16已经卖了,下面该卖iPhone 17了。这个饼还可以再画一年。原来说挤牙膏每次出功能,现在连饼都不舍得上了。去年讲Apple Intelligence,讲智能Siri,今年这个饼好像还可以再画一年,接着讲吧。所以大家等着看,明年iPhone 17发布的时候,里边带的iOS 19,这个里边可能就有智能Siri了。

那为什么说我的手机可能就不能用了呢?因为现在在iPhone 16里头,之所以无法使用智能Siri,是因为苹果自己的模型在这上面跑不起来,或者跑着的效果极差。你要想让它效果变好,一定要干嘛?要把这个模型的参数增加。那你模型参数增加呢,就面临另外一个问题,就是你需要给手机加内存。你手机内存不够的话,你就没有办法跑那么大的模型。所以这可能是我们iPhone 15 Pro Max要退出现役的一个标志。

那么为什么这么难?这个智能Siri为什么做不出来?这呢就是Apple Intelligence结构上的一个尴尬了。所有的这种手机智能助手,都是两个大模型在工作,一个呢是云端大模型,一个是本地小模型。两个模型要配合干活。本地小模型的能力呢,通常都比较小比较差,云端大模型呢,它有一些隐私和费用的问题需要解决。你说我大量的问题扔给云端模型,那你前提是什么?你就要把你的数据,把你的个人信息要扔到云端去。这件事情对于苹果来说呢,他们肯定还是说我不想给你,那就要靠本地小模型来搞定了。

按道理说我们跟智能Siri去聊天对话,实现各种功能,都应该是本地小模型干的活。包括现在阿里通义千问要去帮Apple Intelligence在中国落地的这个过程,也是要帮助苹果把它的小模型在中国落地,在中国通过政府审核,拿到牌照。这种小模型有一些事情是能干的,你比如说让他做个翻译,让他简单的生成一些内容,这个问题不大,包括让他去做一些图片优化呀,或者简单的图片识别,都可以做。但是有一些事情他做起来就很费劲了,什么事情呢?第一个叫准确的判断用户意图,你到底要干嘛,这个事就比较难以识别。另外一个比较烦的是什么?就是精准的填表格。大家说为什么要让Siri或者让本地的模型去填表格呢?很简单,原来呢我们都是在沙箱系统里头,每一个APP自己是有一个独立的运转空间的,那么我们现在想把所有的这些应用让它串起来呢,能够形成一个完整的服务来给我们用。

我们就需要挨着个的沙箱进去,然后看看说:“哎,这个表格怎么填?这个地方应该填联系人,那个地方应该填分享的位置,这个地方应该填分享标题,哪个地方应该填打标签。”但是要把这个表格填得很清楚,这个对于小模型来说是比较难的,不太容易实现。因为AI这种东西比较难控制的是什么?就是叫一致性。我这一次填对了,下次未必能填对。

他们现在测试苹果本地的这个小模型,大概正确率呢,是66%到70%多左右,这样的一个正确率。很多人说:“这不低了呀,已经有一大半都是对的了。”你要想一想,你每次跟他讲话的时候,他有1/3的可能性会告诉你说:“哎,我找不到这个填信用卡信息的地方了,我找不到填密码的地方了。”人使用的过程中,你是不会记住他的好的哈,你光会记住他怎么不好。我光记着他,每次叫他干活,他都搞不定。

所以呢,目前为止,依然没有办法发行出来。那为什么我们都觉得AI已经挺强的了呢?OpenAI也好,Anthropic也好,谷歌的Gemini,国内DeepSeek,豆包,这些模型我们觉得都可以了呀。为什么到手机上就这么费劲呢?就是我们刚才举的所有这些模型,都是大模型,都是千亿参数以上的模型。DeepSeek 671B,也就是6,71亿参数的一个模型,其他的好多是没有公开的,估计应该都是千亿以上的模型。而像苹果这种手机上跑的模型,也就是30亿3B这样大小的一个模型,它这个差别还是非常非常大的。

而且我们现在让这些大模型去干的活是什么呢?都是你给我生成内容,最多是加个搜索,加一个本地知识库也就完事了。你并没有让他去给你填表格,没有让他去干这么复杂的事情。而且这些复杂的事情,这种大模型其实现在干的也没有那么好。现在这些大模型,是通过MCP或者是function call,通过这两种方式去调用外部接口。你需要提前把你的服务包装好放在里头,而不是像现在苹果和安卓手机这样,我们直接到你的应用的沙箱里边去,自己去发现这些接口。这个还是有挺大差别的。

手机上面的模型或者电脑上的模型,最大容量能够容忍多大呢?手机上一般也就是3B,像苹果iPhone上的就是3B,小米华为这些大概也就是2B,3B。最大的可能是OPPO用了一款7B的模型,也就是70亿参数的模型。电脑上呢,一般是7B和14B,MacBook air或者比较轻薄的本,大概到14B还是可以忍受的。也就是你有16G内存,我的电脑是可以跑32B的,因为我这个电脑有32G内存。

还是可以工作的。所以我现在用阿里通义千问的QWQ 32B的推理模型,效果好极了。你说我能不能用更大的模型,72B的或者是671B满血版DeepSeek?这东西能不能跑起来?不是不能,但是这种模型你要让它跑起来的话,这个电脑基本上已经没法背着走了。它的价格和重量,都是我们所无法忍受的了。所以在电脑上现在最多可以到32B,再往上没法整了。

安卓系统好像并没有感觉像Siri这么费劲。这种带有智能语音功能的安卓手机,甭管是谷歌的Pixel,还是国内的华为、小米、OPPO、vivo,感觉好像都已经可以用了呀。怎么苹果就费劲呢?原因也很简单。第一个,谷歌自己有一个叫Gemini Nano的小模型,这个模型的效果应该比苹果那个3B的模型还要稍微好一些。在做模型技术这件事上来说呢,还是可以相信谷歌的。而且呢,他自家的本地模型跟自家的云端模型之间的界限应该要相对模糊一些,这样效果会更好。

像苹果的话就是本地模型跟OpenAI的ChatGPT之间的这个服务界限是很明晰的。你到Siri上去问各种问题以后,如果它觉得处理不了,它就问你说现在是不是要扔给ChatGPT。你说是,他再决定哪把哪些信息扔上去。这个过程的话就会比较费劲了。你需要把本地的很多信息脱敏,还要保证你的隐私不泄露,然后再发给ChatGPT。这个是比较慢的。而像谷歌的话,所有的信息在谷歌云上。当我需要调用云端模型去干活的时候,他就可以在同一个账号下说,来张三李四,你现在用他的谷歌账号把Gemini调起来,然后替他把这个服务做完。那这块效果就会好很多。

至于说国内的这些安卓厂商呢,一般手机里头都是用千问或者Llama模型,微调了一个3B或者是3-7B之间的本地模型在跑。而服务端的话,大部分都是在挂DeepSeek,还有一些原来是挂豆包的,效果都还可以。那苹果呢就是既难看又令人尴尬了。

OpenAI怎么样呢?苹果跟OpenAI合作,苹果这事没玩转。OpenAI怎么样?OpenAI呢,是礼貌而不失尴尬的一笑。我们还可以在Apple Intelligence上线的两个月里头,用户量暴增1亿,从3亿跳至4亿。所以OpenAI算赚到了。但是另外一头为什么尴尬呢?订阅数没涨。原来有1,000多万订阅,上来以后OpenAI还是有1,000多万订阅。所以它的整个成本上升了,用户量上升了,但是收入并没有上升,稍显尴尬。

当然了,这可能就是OpenAI想要的东西。求锤得锤,为什么呢?你说真有OpenAI这样的人,赔本赚吆喝,自己还很开心吗?是这样的,OpenAI现在干的活叫赚不赚钱不重要,市场占有率必须遥遥领先。没有赚到钱,但是我的用户从3亿涨到4亿了,而且融资顺利,它已经融到钱了。挣钱这事慢慢来吧,不着急了。

从现在苹果的尴尬来看,未来的AIOS到底应该向哪个方向走呢?会变成一个什么样呢?咱们可以稍微的思考一下。前面已经有一些先烈倒在路上,但是样子是很壮烈的,比如AI pin或者是Rabbit R1,这些号称要替代手机的系统已经倒下了。还有咱们行业冥灯罗永浩的Javas one,现在也都没有什么动静了。Javas one算是开了发布会吗?搞不太清楚,但是,这个东西就出来了,然后就没有然后了。他们呢都希望替代手机的形式,把屏幕做的很小,加上这个摄像头加上触控,或者一些其他的这种交互方式,它们都没有最终流行起来。

那么以模型为核心的新的AIOS,也许在路上了。新的AIOS长什么样?第一个,它就没有APP了。现在甭管是谷歌还是安卓呢,都是一大堆APP,而且每一个APP之间呢,都是在沙箱里面,谁也摸不到别人的数据,都是自己的跟自己玩的。这些APP呢主要是在APP内部为人家服务,而不是为大模型服务的。他也没有去给大模型写很好的接口,向大模型介绍我是张三还是李四,我能干什么,他没有干这个事情。大模型呢要到APP里边去,再去研究说这些应用到底需要哪些数据,哪些接口是暴露出来的,他们提供哪些服务和数据,他们要把所有这些东西拼在一起,才可以让整个的AI手机工作起来。这肯定是一个脱裤子放屁的事情,非常非常的不爽。

可能未来手机只有聊天和浏览器界面了,就没有那么多APP了。所有的服务呢都是通过MCP或者function call的方式去包装起来。我们去跟AIOS聊天的时候,AIOS根据一大堆的功能描述,去决定什么时候调用哪个具体的功能。你比如告诉他说这个是订火车票的,那个是查新闻的,这个是进行搜索的,哪一个是购物的。等于我们包装了一大堆功能的说明书,然后呢把这些说明书一起扔给大模型。我们只跟大模型沟通,沟通完了以后大模型确认说,现在我应该去给你查个火车票了,待会我应该去给你查一下,这个旅游应该怎么去规划了,他要去做这样的事情。而且未来的话,可能所有的个人数据都是放在云端的。

其实,手机厂商现在也在干这个事。苹果上面,我们绝大部分的数据是在iCloud里面,而谷歌的话,我们绝大部分的数据是在Google Drive上。国内其实也是一样,甭管你是用小米和华为,我们绝大部分数据都是要放在他们的云端上。这样的话,它在云端的模型就直接可以接管我们云端的数据,为我们服务了。这可能就是未来的一个模样。

那你说以后手机长什么样呢?是不是像AI PIN和Rabbit R1这样呢?就把屏幕干掉?我觉得不会。未来的手机可能还是长现在这个样子:巨大的屏幕,很多的摄像头,非常好的算力芯片,加上巨大的内存。为什么要巨大的内存?内存小了以后,你本地模型跑不起来。未来你要想在本地把模型跑起来,肯定还是需要很大的内存。

从我现在用的感受来说呢,基本上到14B以上的模型,它的错误率就会降低很多。那你可能要在手机上面跑16G内存。这像32B的模型,虽然在我的电脑上能跑,但是他在跑的时候,这个风扇会呼呼的响,跑起来也没有那么顺畅了。以后我们是不是要在手机上跑32B的模型?我觉得从现在看呢未必,但是事态是发展的。

我记得很早以前,我们在去做很多硬件设计的时候,就是说我们要考虑到时间因素。可能到未来,我们的流量,我们的算力,我们的存储空间都不是问题。应该用这样的方式来去思考未来的手机长什么样子。所以也许未来,我们可以在手机上面看到32B的模型。

最近,谷歌刚刚发布的GEMA3开源大模型,它的27B现在号称是在GPU单卡上可以跑的最强模型,比这个阿里通义千问的QWQ 32B还要再强一些。27B它就要又小一点点了。一个大屏幕,比较多核心的算力芯片,加上32G的内存,这可能就是未来的样子。先不要尝试改变手机的外观,还是个大屏幕就可以了。当然了,内部的架构要为大模型而生。这就是苹果这一次Siri难产,为我们AIOS和未来的AI手机所提供的一些思考。

好,这一期就跟大家讲到这里。感谢大家收听,请帮忙点赞,点小铃铛,参加discord讨论群,也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。

Comments are closed.

退出移动版