硕鼠的博客站

范路的博客主站,时而会发些东西。

Posts Tagged ‘stable diffusion’

今天讲一下如何在Dify里面调用最新的文生图模型FLUX.1。FLUX.1是由Stability,也就是做Stable Diffusion的那家公司的一帮创始元老离职后做的新的文生图模型。现在据说效果非常好,我自己试了一下,确实还可以。那么今天跟大家演示一下如何在Dify里边去使用这个FLUX.1模型。

首先,我们要去找一个云端可以跑的FLUX.1模型。你说我直接到FLUX网站上去行不行?没问题啊,但是他们的这个要付费,特别是FLUX Pro是要付费的。我们先找一个免费的,先跑起来吧,特别是在国内能用的这种免费的,先让它跑起来。我们找到了硅基流动这样的一个网站。我们看一下它这个网站长什么样子。这样前面其实跟大家介绍过硅基流动这个项目,先登录进去。

Read More…

大家好,欢迎收听“老范讲故事”的YouTube频道。今天,来跟大家讲一讲360盗图事件到底是怎么回事。事情的始末呢,是前一段时间,360开了一个技术发布会。发布的,是360AI智能浏览器,也就是360浏览器在这个基础上,可以有一定的AI功能。那么,在这个里头,给大家演示了一个功能是什么呢?叫图片局部重绘。就是给你一张画,然后你圈中了一些画里边的元素,然后说:“哎,给我重新画一些东西。比如说,换身衣服啊,换个发型啊,戴个眼镜啊,加个饰品啊,或者把后边哪一块我不想要的,给我去掉啊啊,或者给我在这画个猫,画个狗啊。”做这样的一个功能。演示完了以后呢,突然有一位AIGC圈里边的贡献者,就跑出来说:“哎,你这图是我的啊,你盗我图了,你应该是给我道歉啊。”四处就开始说这个事。360相关的负责人呢,也出来说:“哎呀,我找到他了啊,找到他完了以后呢,尝试跟对方进行沟通。我们愿意付钱,商用应该付钱。前头呢,我们自己挑选图片的时候,没太注意,是我们的问题啊,也道歉了。”但是在付钱的过程中就出问题了。这位作者呢,要求什么呢?就是你要付十倍的钱,先给我做一个罚款,然后呢,再去花正常的钱买这个商用版本啊。做完这两样以后,还要给我道歉啊。这样才可以。相当于就说,我要把这360的面子彻底踩干净吧。因为这一块呢,

本身并没有一个特别的明确规定,说你如果盗图了,应该怎么去赔偿。他自己也没说过啊,这作者自己并没有说过,谁盗图要10倍赔偿啊,从来没有讲过啊。只是说现在搞了这样的一个事情,360的负责人呢,就讲说哎呀,这个事情呢,已经超出了我的想象空间啊,有点太狮子大张口了。那么既然这样的话,你告我吧,咱们法庭见。正好呢,现在AIGC相关作品的版权认定,这个事比较模糊,咱干脆在法院上把它炒一清楚,甭管炒成什么样,咱们按法院判断来就行了。讲了这样的一个话,这位作者呢,也出来回应了,说我就要一块钱,这一块钱的使用费,哪怕就是十倍,也就是十块钱,就这样的一个情况就可以了。你只要给我道歉,公开道歉啊,那意思就是我要流量,我得蹭你。结果现在呢,360也不理他了啊,就说咱们就法院上见就完事了。大概就是这样的一个前因后果。咱们在说谁对谁错之前啊,咱们先说说到底是什么东西被盗版啊,大家先去评评理,这东西到底有没有道理。首先他们画的图用的是什么呢?叫stable diffusion,stability公司做的一套开源的绘图工具啊。这个东西本身是开源的,甭管是号称是被盗图的,还是360,其实用的都是他们家东西。那么在这个过程中呢,只要符合stable diffusion的开源许可文件,啊符合相关条款,大家都不算偷盗啊。

Read More…


大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……

说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。

Read More…

大家好,

欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲华为大模型演示翻车现场。

近期呢,非常多的AI相关的项目都在进行演示和发布,特别是国内。为什么它?因为时间到了。通常每年在这个时候也会有很多发布,因为每年在这个时候会开谷歌IO,大家喜欢在谷歌IO的前后进行信息的发布啊。因为谷歌IO算是全世界程序员或者开发者的一个盛会吧。那这个前后进行信息发布的话,如果它被安卓采用了,或者再跟谷歌搭上一点关系的这种技术会有更好的发展空间。

那今年呢,还有另外一个事情,就是拉玛3发布。前面其实国产很多大模型都是跟拉玛2有千丝万缕的联系。其实当时就已经预言过,我说拉玛3出来看多长时间之后,国内的大模型会争先恐后的再更新换代一波。现在呢,这个时间点就到了。前面阿里的通1,000问2.5发布,这两天还有几个,一个是零一万物的啊,叫e latch大模型发布,然后字节跳动的豆包大模型前两天也发布了啊。这豆包大模型主打的一个便宜,对别人的价格都便宜非常多,因为大模型的价格一般是按TOKEN算的啊,一般一个汉字是一个TOKEN,大概四个字母,还是几个字母的英文单词,是一个TOKEN啊,它这个算法比较奇怪。

Read More…
Close Bitnami banner
Bitnami