硕鼠的博客站

范路的博客主站,时而会发些东西。

Category : OpenSource

大家好,欢迎收听《老范讲故事》的YouTube频道。今天,咱们来讲一讲斯坦福AI团队与清华大模型之间的有趣故事。事情的始末,咱们稍微简单说一下。斯坦福的AI团队发布了一个名为“拉玛3杠v”的模型,号称仅用了500美金,拥有GPT41%的体量,就能达到相似的图片识别能力。随后,被指出这个模型疑似抄袭了清华大学面壁智能的“迷你CPM杠拉玛3V 2.5”版本。

一开始,斯坦福团队的人出面澄清,表示他们只是调用了清华大模型的分词器,并声称自己的工作开始得更早,不算是抄袭。但随着一步步的证据浮现,最终不得不承认确实存在抄袭行为。清华大学面壁智能大模型团队也正式确认了这一点。

Read More…

Llama3-8B-Chinese:开源领域的新动力

1️⃣ 探索开源新动态:
Llama3的推出,彻底激活了开源领域,大家都动起来了。

2️⃣ 本地部署体验:
LLama3-8B,在本地跑起来,效率还是不错的。

3️⃣ 中文支持的挑战:
可惜LLama3对与中文支持的效果并不好。

4️⃣ 中文优化版的迅速响应:
不到一周,Llama3-8B-Chinese就来了。

Read More…

大家好,欢迎收听老范讲故事YouTube频道。今天咱们来讲第一个故事。

Llama3发布了,李彦宏是不是被打脸了呢?Llama3突然发布,又是一个遥遥领先。它呢,发布了8B和70B的两个版本。8B就是80亿参数,70B呢就是700亿参数。8B的,我其实已经试过了,就在本地已经装上了。这个某些方面,接近了原来,或者超过了原来的Llama2的70B。包括一些咱们在本地跑的这种30多B的,这种就是300多亿参数的模型,它已经都超过了。而且速度还飞快。

啊,70B呢,据说已经超越了cloud 3的中量级模型。Note 3是有三个模型的:一个是特别微小的,就是可以在手机上跑;一个是中等量级的,是可以在PC本地跑的;然后还有一个是那种特别大的,特别大的,是可以对标GPT4的。70B的基本上已经超过这个中等量级了,也超越了GMINI 1.5 Pro。现在大家想去试GMINI 1.5 Pro的,可以到AI studio.google.com上去试,那个是可以免费用的。也超越了现在70B发布出来的版本。普遍他们自己讲的是超越了GPT3.5,但是呢,还达不到GPT4。这在所有测试数据上都是这样。我相信梅塔应该不会像咱们似的,专门做一些调优以后去跑分,不像咱们这么无聊。

Read More…
Close Bitnami banner
Bitnami