6 月 28
Luke FanOpenSource, 华为很厉害 Dart语言, Go语言, HDC大会, LLVM编译器, Objective C, Rust语言, Swift, TypeScript, 中文编程, 中文编程语言, 互联网编程, 人工智能编程, 仓吉, 仓吉编程语言, 仓颉编程语言, 代码库, 全域编程, 兼容性, 内存安全, 内存泄漏, 内存越界, 前端开发, 华为, 华为仓吉, 华为仓颉, 后端开发, 多核心设计, 嵌入式系统, 并发安全, 并行处理, 开发效率, 开发者社区, 开源项目, 技术革命, 数据类型, 新兴编程, 新技术, 新技术解析, 新语言发布, 易用性, 易读性, 版本更新, 现代编程, 瑞斯克5, 生态建设, 科学计算, 科学计算适用, 程序员调试, 程序完整性, 程序开发., 程式优化, 程式设计, 程式调试, 类型安全, 编程发展, 编程工具, 编程工具链, 编程平台, 编程效率, 编程教育, 编程新法, 编程未来, 编程案例, 编程模式, 编程环境, 编程生态, 编程社区, 编程简洁性, 编程规范, 编程语言, 编程语言比较, 编程语言特性, 编程语言进化, 编程趋势, 编程逻辑, 编程革新, 编译器选择, 网络设备, 自主控制节奏, 自主研发, 英特尔CPU, 跨平台编译, 软件工程, 软件开发, 软件更新, 软件架构, 高性能程序, 高效编译, 麒麟CPU
大家好,欢迎收听“老范讲故事”的YouTube频道。今天,咱们来讲一讲华为,仓吉编程语言终于来了。在刚刚过去的HDC,也就是华为开发者大会上,除了发布鸿蒙新一代操作系统,感谢了一大堆友商,还故意把腾讯的名字落掉之外,还发布了众望所归,或者大家期盼已久的仓吉编程语言。2020年,华为就申请了仓吉的商标,而且告诉大家说,我要去做编程员了。当时很多人就直接疯了,说哎呀,华为要做中文编程语言,我们再也不需要使用英文字符去写程序了,我们要用古老的中文去写了。
在这件事情上呢,华为采用了叫不承认不否认,不负责的态度。什么意思?就是华为自己从来不承认说,我要做中文编程语言,没有任何中文编程语言相关的报导是从华为出来的。但是华为呢,也不否认任何人说华为要做中文编程语言了,他也不出来辟谣,也对所有市面上流传的信息不负责任。反而不是我说的这件事情呢,传来传去,传来传去,传到2024年,这个仓吉编程语言终于发布了。
More
6 月 06
Luke FanAIGC, OpenSource
大家好,欢迎收听《老范讲故事》的YouTube频道。今天,咱们来讲一讲斯坦福AI团队与清华大模型之间的有趣故事。事情的始末,咱们稍微简单说一下。斯坦福的AI团队发布了一个名为“拉玛3杠v”的模型,号称仅用了500美金,拥有GPT41%的体量,就能达到相似的图片识别能力。随后,被指出这个模型疑似抄袭了清华大学面壁智能的“迷你CPM杠拉玛3V 2.5”版本。
一开始,斯坦福团队的人出面澄清,表示他们只是调用了清华大模型的分词器,并声称自己的工作开始得更早,不算是抄袭。但随着一步步的证据浮现,最终不得不承认确实存在抄袭行为。清华大学面壁智能大模型团队也正式确认了这一点。
More
4 月 25
Luke FanAIGC, OpenSource LLama3, Ollama, 本地配置

1️⃣ 探索开源新动态:
Llama3的推出,彻底激活了开源领域,大家都动起来了。
2️⃣ 本地部署体验:
LLama3-8B,在本地跑起来,效率还是不错的。
3️⃣ 中文支持的挑战:
可惜LLama3对与中文支持的效果并不好。
4️⃣ 中文优化版的迅速响应:
不到一周,Llama3-8B-Chinese就来了。
More
4 月 23
Luke FanAIGC, OpenSource 70 billion parameters, 70B模型, AI Security, AI多语言处理, AI安全性, AI技术, Artificial Intelligence, Baidu, ChatGPT, Claude, Facebook, GPT3.5, GPT4, Instagram, Li Yanhong, LLama2, LLama3, Meta, Multilingual AI, OpenAI, Tech Innovation, Technology Breakthrough, WhatsApp, 业界影响, 人工智能, 大语言模型, 开源AI, 扎克伯格, 技术突破, 技术讨论, 文心一言, 李彦宏, 百度, 科技创新, 通义千问
大家好,欢迎收听老范讲故事YouTube频道。今天咱们来讲第一个故事。
Llama3发布了,李彦宏是不是被打脸了呢?Llama3突然发布,又是一个遥遥领先。它呢,发布了8B和70B的两个版本。8B就是80亿参数,70B呢就是700亿参数。8B的,我其实已经试过了,就在本地已经装上了。这个某些方面,接近了原来,或者超过了原来的Llama2的70B。包括一些咱们在本地跑的这种30多B的,这种就是300多亿参数的模型,它已经都超过了。而且速度还飞快。
啊,70B呢,据说已经超越了cloud 3的中量级模型。Note 3是有三个模型的:一个是特别微小的,就是可以在手机上跑;一个是中等量级的,是可以在PC本地跑的;然后还有一个是那种特别大的,特别大的,是可以对标GPT4的。70B的基本上已经超过这个中等量级了,也超越了GMINI 1.5 Pro。现在大家想去试GMINI 1.5 Pro的,可以到AI studio.google.com上去试,那个是可以免费用的。也超越了现在70B发布出来的版本。普遍他们自己讲的是超越了GPT3.5,但是呢,还达不到GPT4。这在所有测试数据上都是这样。我相信梅塔应该不会像咱们似的,专门做一些调优以后去跑分,不像咱们这么无聊。
More
Newer Entries