硕鼠的博客站

范路的博客主站,时而会发些东西。

Category : AIGC

今天讲一下如何在Dify里面调用最新的文生图模型FLUX.1。FLUX.1是由Stability,也就是做Stable Diffusion的那家公司的一帮创始元老离职后做的新的文生图模型。现在据说效果非常好,我自己试了一下,确实还可以。那么今天跟大家演示一下如何在Dify里边去使用这个FLUX.1模型。

首先,我们要去找一个云端可以跑的FLUX.1模型。你说我直接到FLUX网站上去行不行?没问题啊,但是他们的这个要付费,特别是FLUX Pro是要付费的。我们先找一个免费的,先跑起来吧,特别是在国内能用的这种免费的,先让它跑起来。我们找到了硅基流动这样的一个网站。我们看一下它这个网站长什么样子。这样前面其实跟大家介绍过硅基流动这个项目,先登录进去。

Read More…

Figure02机器人发布了,这真的是地表最强的机器人了吗?大家好,这里是老范讲故事的YouTube频道。Figure AI最近发表了它的Figure02,因为前面Figure01发布的时候真的是引起了轰动。现在Figure02发布了,但是它呢,也没有正儿八经开发布会,只是在官方账号上发了个视频,展示了一下Figure02的一些特性。

官方账号发视频呢,大家还是可以去相信一下的。如果是非官方账号呢,现在有可能是AI生成合成的。现在的很多视频,已经不能说叫“眼见为实”了,但是官方我相信,应该还是实拍的视频。不过官方视频呢,也不排除剪辑提速的可能性。提速什么意思?就是我慢点拍,然后快点放。剪辑呢,就是只给你看能看的部分,把这个出错的部分都给你剪掉,这个也是可能性比较大的。

Read More…

扎克伯格跟黄仁勋凑一块,除了换皮衣,还讲了点什么呢?他们是在SIGGRAPH大会上进行的访谈。黄仁勋是访谈主持人,而扎克伯格是被邀请的嘉宾。因此,在他们的访谈中,扎克伯格是逗哏的,黄仁勋是捧哏的,这一点首先要搞清楚。

这一次访谈,主要是扎克伯格在输出。SIGGRAPH大会是一个历史非常悠久的大会,叫计算机图形图像特别兴趣小组(Special Interest Group on Computer Graphics),小组成立于1967年,1974年第一次开会。今年是第50届,参会的人中有90%都是博士。当我看到这个消息时,一开始想,黄仁勋应该是个博士吧?扎克伯格是中途退学的。后来查了一下,发现并不是。黄仁勋是硕士,而扎克伯格是2002年入学于哈佛的心理学和计算机科学专业,2004年辍学,实际上上了两年学,之后在2017年被哈佛授予了荣誉法学博士学位。他好像跟某位伟人的学位差不多。

Read More…

谷歌收购Character AI的奇葩交易方式,让我都涨知识了。大家好,这里是老范讲故事YouTube频道。今天咱们来讲一讲,谷歌收购Character AI到底是用了一个什么样的奇葩方式。

前两周我们刚刚讲过,科学家创业的Character AI可能快混不下去了,正在有一些公司准备购买它。谷歌、XAI、梅塔据说都去谈了。而且前面还传出过马斯克的XAI收购了Character AI这样的假消息。其实也不算假消息,大家肯定谈判达到了不同的状态嘛。但是最终是谷歌抱得美人归,完成了交易。

但是这种交易方式还真的让我学到了很多的新知识点。我原来在上市公司的战略投资部里面,其实我们每年操作很多的并购案。并购的案子和投资的案子是一半一半,所以见过很多各种各样的并购案子。但是谷歌这样的方式,我头一回见。今天跟大家讲一讲,到底有什么不一样,这个交易方式到底是怎么做的呢?

Read More…

AIGC,或者说生成式AI的这一波浪潮,到底是不是一个泡沫呢?大家好,这里是老范讲故事的YouTube频道。今天咱们来探讨一下,AIGC到底算不算泡沫。

首先,我们要讲清楚什么是泡沫。泡沫通常讲的是,大家对某一项技术或者市场的估值,或者预期,远远超过了它的实际价值,而且这个泡泡最后还破掉了。如果说最后泡泡没破掉,一直涨上去了,那么它不算泡沫。通常是破掉了才算。

一项科技在市场中应用的过程,其实经常都会有泡沫产生。一般这种泡沫会有三种结果。第一种结果就是没有破掉,继续慢慢夯实发展下去了。第二种,破掉了,过了一段时间以后重新又发展起来。其实很多的技术应用都是这样的。说我们一开始上升,上升到一定阶段以后,会有一个瓶颈期,会下跌,或者是叫梦想的破灭,夯实基础以后再去起飞。这是第二种。

Read More…

网文作者向AIGC发起了反击。中国最大的网文平台番茄小说,因为在协议里要求网文作者授权他们使用作品进行大模型训练,导致这些作家纷纷退网,纷纷停更,向他们正式发起了反击。

大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲番茄小说的AI附加条款到底是怎么回事。上面写了,任何作者到任何的小说平台上去写小说,都是要跟人家签协议的。说我在你这里写小说,遵守你的规则,你给我分钱。

番茄小说的协议里头呢,就突然多了一个条款,这个条款呢叫做AI附加条款。条款怎么写的?甲方可将签约作品的全部部分内容以及相关信息,包括作品名称、简介、大纲、章节、人物、作者个人信息、封面等数据语料、文本素材等,用于标注合成数据数据库建设、AI人工智能研发、机器学习模型训练、深度合成算法研发等目前已知或未来开发的新技术研发应用领域,包括但不限于:一、用于智能对话、智能文本、图像、视听语音等作品成品的编辑生成转换、深度合成、虚拟现实技术等再研发和应用;二、用于任何技术下的AI人工智能模型训练,或用于生成提供给模型训练的合成数据数据库;三、其他任何新技术研发或应用场景。

Read More…

GPT5如果再不出的话,可能就没有机会了。大家好,这里是老范讲故事的YOUT5频道。今天咱们来讲一讲OpenAI现在身上的压力到底有多大。再不出GPT5,可能真的要出事儿了,因为前面吹过的牛实在太多了,特别是Sola这样的模型,号称可以直接生成长的视频出来,到现在已经半年了,还没有真正拿出来,只是每个月放出几个视频而已。而其他各个公司,按照Sora方向做的产品,已经都开始在公众测试了,这对他们来说一定是巨大的压力。

前一段时间发布的Anthropic Claude 3.5 Sonnet,也把压力给到了OpenAI,因为这个模型的效果已经非常好,而且极其便宜。更不要说昨天刚刚发布的Llama3.1405B这样的一个开源模型。前面咱们讲的Anthropic的模型还是闭源的,而Llama可是个开源模型。405B的话,在各个层次上,都赶超了OpenAI的Chat GPT-4。老大的位置有可能会丧失。

Read More…

GPT5如果再不出的话,可能就没有机会了。大家好,这里是老范讲故事的YOUT5频道。今天咱们来讲一讲OpenAI现在身上的压力到底有多大。再不出GPT5,可能真的要出事儿了,因为前面吹过的牛实在太多了,特别是Sola这样的模型,号称可以直接生成长的视频出来,到现在已经半年了,还没有真正拿出来,只是每个月放出几个视频而已。而其他各个公司,按照Sora方向做的产品,已经都开始在公众测试了,这对他们来说一定是巨大的压力。

前一段时间发布的Aceropic Claude 3.5 Sonnet,也把压力给到了OpenAI,因为这个模型的效果已经非常好,而且极其便宜。更不要说昨天刚刚发布的LlamaB这样的一个开源模型。前面咱们讲的Aceropic的模型还是闭源的,而Llama可是个开源模型。405B的话,在各个层次上,都赶超了OpenAI的Chat GPT-4。老大的位置有可能会丧失。

Read More…

Llama3.1 405b突然开放,指标上全面超越GPT-4。中国厂商们是不是又可以充了呢?大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲Llama3.1 405b 开放的事情。

Llama的开放,每一次都比较有戏剧性,都会有偷跑。什么叫偷跑?就不是由官方开了发布会,说我今天发布了一个什么产品,而是一般都是在Reddit这样的论坛里,突然就有人放出磁力链来,大家可以去BT下载Llama3.1 405B,包括Llama3.1 405B相关的各种测试数据,都是这么被发现的。头一天偷跑了以后,第二天梅塔说那算了,我开了吧。当时好像Llama2也是这么开出来的,现在Llama3.1 也是这么偷跑,完了以后就正式开放了。

他在跑分上已经全面地超越了GPT-4,基本上在各个指标上都超越了。这是非常非常难的,因为以前大家推出的各种模型里头,都是在个别指标里面超越GPT-4O或者超越GPT-4。那么在各项指标上全都超越的,这应该是第一次。当然了,它也是分很多版本的,分为8B、70B以及405B这三个版本。405B已经完全超越了,下面小一点的8B,应该比原来的Llama370B的效果还要再好一些。它的70B基本上针对前两天发布的GBT4OMINI,属于碾压状态。

Read More…

OpenAI在封禁中国IP访问其API之后,第一个大动作居然是发布了一个GPT4o mini。你发布了个小模型,这究竟是要卷死谁啊?中国团队是不是有机会弯道超车呢?大家好,这里是老范讲故事YouTube频道。Open AI第一次发布微型模型,以前的Open AI都是一个比一个大,因为原来人家讲的叫Scaring Law,就是这种伸缩法则,只要是变大,我一定会变强。而且,也嘲笑那些小模型说你们肯定不行啊,一定是大的好使。我自己原来也是很喜欢使用大模型,有大的不识小的,这是我原来挑选模型时候的基本原则。但是现在,Open AI开始卷小模型了。

Open AI的这个GPT4O mini有什么特点呢?第一个,快啊,小模型一定是比大模型跑得快的。另外,就是极其便宜,它这个里面输入的信息,100万TOKEN,15美分啊,非常非常便宜了。输出的信息呢,是100万TOKEN,60美分,也就相当于是100万4块多人民币啊,已经快要接近国内的这些模型的价格了。效能呢,也应该是比GPT3.5要强一些啊,这是GPT4O MINI的一个基本情况。

那么,这样的一个鼓励越大越好的公司,原来更多的人力肯定是去研究更大的模型去了。现在说不,我要上一个小的,而且这种小模型呢,跟一般的小模型还有区别。区别在于它可以支持Function Call,可以支持视觉多模态的识别。那么,这是GPT4O MINI比其他的普通小模型所独有的特点。

Read More…
Close Bitnami banner
Bitnami