6 月 06
Luke FanAIGC, OpenSource
大家好,欢迎收听《老范讲故事》的YouTube频道。今天,咱们来讲一讲斯坦福AI团队与清华大模型之间的有趣故事。事情的始末,咱们稍微简单说一下。斯坦福的AI团队发布了一个名为“拉玛3杠v”的模型,号称仅用了500美金,拥有GPT41%的体量,就能达到相似的图片识别能力。随后,被指出这个模型疑似抄袭了清华大学面壁智能的“迷你CPM杠拉玛3V 2.5”版本。
一开始,斯坦福团队的人出面澄清,表示他们只是调用了清华大模型的分词器,并声称自己的工作开始得更早,不算是抄袭。但随着一步步的证据浮现,最终不得不承认确实存在抄袭行为。清华大学面壁智能大模型团队也正式确认了这一点。
More
4 月 25
Luke FanAIGC, OpenSource LLama3, Ollama, 本地配置
1️⃣ 探索开源新动态:
Llama3的推出,彻底激活了开源领域,大家都动起来了。
2️⃣ 本地部署体验:
LLama3-8B,在本地跑起来,效率还是不错的。
3️⃣ 中文支持的挑战:
可惜LLama3对与中文支持的效果并不好。
4️⃣ 中文优化版的迅速响应:
不到一周,Llama3-8B-Chinese就来了。
More
4 月 23
Luke FanAIGC, OpenSource 70 billion parameters, 70B模型, AI Security, AI多语言处理, AI安全性, AI技术, Artificial Intelligence, Baidu, ChatGPT, Claude, Facebook, GPT3.5, GPT4, Instagram, Li Yanhong, LLama2, LLama3, Meta, Multilingual AI, OpenAI, Tech Innovation, Technology Breakthrough, WhatsApp, 业界影响, 人工智能, 大语言模型, 开源AI, 扎克伯格, 技术突破, 技术讨论, 文心一言, 李彦宏, 百度, 科技创新, 通义千问
大家好,欢迎收听老范讲故事YouTube频道。今天咱们来讲第一个故事。
Llama3发布了,李彦宏是不是被打脸了呢?Llama3突然发布,又是一个遥遥领先。它呢,发布了8B和70B的两个版本。8B就是80亿参数,70B呢就是700亿参数。8B的,我其实已经试过了,就在本地已经装上了。这个某些方面,接近了原来,或者超过了原来的Llama2的70B。包括一些咱们在本地跑的这种30多B的,这种就是300多亿参数的模型,它已经都超过了。而且速度还飞快。
啊,70B呢,据说已经超越了cloud 3的中量级模型。Note 3是有三个模型的:一个是特别微小的,就是可以在手机上跑;一个是中等量级的,是可以在PC本地跑的;然后还有一个是那种特别大的,特别大的,是可以对标GPT4的。70B的基本上已经超过这个中等量级了,也超越了GMINI 1.5 Pro。现在大家想去试GMINI 1.5 Pro的,可以到AI studio.google.com上去试,那个是可以免费用的。也超越了现在70B发布出来的版本。普遍他们自己讲的是超越了GPT3.5,但是呢,还达不到GPT4。这在所有测试数据上都是这样。我相信梅塔应该不会像咱们似的,专门做一些调优以后去跑分,不像咱们这么无聊。
More