硕鼠的博客站

范路的博客主站,时而会发些东西。

Posts Tagged ‘竞争对手’

OpenAI在封禁中国IP访问其API之后,第一个大动作居然是发布了一个GPT4o mini。你发布了个小模型,这究竟是要卷死谁啊?中国团队是不是有机会弯道超车呢?大家好,这里是老范讲故事YouTube频道。Open AI第一次发布微型模型,以前的Open AI都是一个比一个大,因为原来人家讲的叫Scaring Law,就是这种伸缩法则,只要是变大,我一定会变强。而且,也嘲笑那些小模型说你们肯定不行啊,一定是大的好使。我自己原来也是很喜欢使用大模型,有大的不识小的,这是我原来挑选模型时候的基本原则。但是现在,Open AI开始卷小模型了。

Open AI的这个GPT4O mini有什么特点呢?第一个,快啊,小模型一定是比大模型跑得快的。另外,就是极其便宜,它这个里面输入的信息,100万TOKEN,15美分啊,非常非常便宜了。输出的信息呢,是100万TOKEN,60美分,也就相当于是100万4块多人民币啊,已经快要接近国内的这些模型的价格了。效能呢,也应该是比GPT3.5要强一些啊,这是GPT4O MINI的一个基本情况。

那么,这样的一个鼓励越大越好的公司,原来更多的人力肯定是去研究更大的模型去了。现在说不,我要上一个小的,而且这种小模型呢,跟一般的小模型还有区别。区别在于它可以支持Function Call,可以支持视觉多模态的识别。那么,这是GPT4O MINI比其他的普通小模型所独有的特点。

Read More…

胖东来食品安全问题赔款近千万。事情发生在6月25号,当天公开了这个问题。胖东来商场的擀面皮被曝加工场所卫生不达标。胖东来做了胖东来式的调查报告,每次遇到这种事情都会写一个六七页的调查报告,非常详细、逻辑清晰,整改措施也到位。这是胖东来做得比较好的地方。但是损失也达到了近千万。

首先,我们来了解一下什么是擀面皮。擀面皮是一种陕西小吃,类似于陕西凉皮或陕西面皮。制作过程是先将面洗净,剩下面筋和面浆。然后将面浆与淀粉水混合,淀粉会沉淀在底部,将上面的水撇去。接着,加入发酵菌进行发酵,发酵后放入锅中,慢慢炒干水分,使其变成半固态的胶体。然后擀成面皮的形状,最后蒸熟后切成条状,拌上辣椒油和豆芽等配料,一起食用。

那么,这近千万的损失是怎么产生的呢?首先,举报此问题的人将获得10万元的奖励。如果你能举报我们存在问题,我们会直接给你现金奖励。此外,在过去10天内在新乡的两家门店购买过擀面皮的顾客都可以享受免单优惠。

以上就是胖东来食品安全问题的情况说明。

Read More…

大家好,欢迎收听“老范讲故事”的YouTube频道。今天,咱们来讲一讲懂车帝——字节跳动的一块鸡肋。字节跳动,现在算是国内互联网行业里头,仅剩的几大狠人中的一个,而且是最狠的一个。现在,中国互联网行业里,还剩哪些狠人啊?美团、拼多多、瑞信、滴滴,字节跳动还剩这些。那你说,原来BAT啊,小米啊,这些怎么没有了呢?啊,这个呢,现在都已经进入了正常的公司发展状态,已经没有那种狠劲了啊,就是那种破釜沉舟,跟你不死不休的那个状态,现在已经没有了啊。刚才我们讲的这几个,还是有这种心态的啊。你们谁撞上这样的公司,还是要掂量掂量的。而在几个狠人中间,字节跳动是最狠的一个。为什么呀?他最大对吧?他的估值是2,250亿美金,年营收破千亿美金,而且他的营收是超过腾讯的啊,所以他呢,有这个狠的资本。

那你说,什么样叫狠啊?大开大合,壮士断腕,这个才叫真正的狠角色。花大价钱出去买公司,花大价钱出去买流量,去跟其他公司起脸开大脸,对脸的啊。你买多少流量,我买的比你多;你挣多少钱,我挣的比你少,我亏钱,我把你干死啊,这个才叫狠公司。字节跳动这些年来,干了哪些特别狠的事情呢?第一个上来还把投资部干掉的就是他。因为很多的大公司都是有投资部的,玩资本运作,去并购公司,搞这样的事情。字节跳动说我不干了啊,投资部不要了,整个开掉,解散掉。

Read More…


大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……

说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。

Read More…
Close Bitnami banner
Bitnami