这一次访谈,主要是扎克伯格在输出。SIGGRAPH大会是一个历史非常悠久的大会,叫计算机图形图像特别兴趣小组(Special Interest Group on Computer Graphics),小组成立于1967年,1974年第一次开会。今年是第50届,参会的人中有90%都是博士。当我看到这个消息时,一开始想,黄仁勋应该是个博士吧?扎克伯格是中途退学的。后来查了一下,发现并不是。黄仁勋是硕士,而扎克伯格是2002年入学于哈佛的心理学和计算机科学专业,2004年辍学,实际上上了两年学,之后在2017年被哈佛授予了荣誉法学博士学位。他好像跟某位伟人的学位差不多。
前一段时间发布的Anthropic Claude 3.5 Sonnet,也把压力给到了OpenAI,因为这个模型的效果已经非常好,而且极其便宜。更不要说昨天刚刚发布的Llama3.1405B这样的一个开源模型。前面咱们讲的Anthropic的模型还是闭源的,而Llama可是个开源模型。405B的话,在各个层次上,都赶超了OpenAI的Chat GPT-4。老大的位置有可能会丧失。
Open AI的这个GPT4O mini有什么特点呢?第一个,快啊,小模型一定是比大模型跑得快的。另外,就是极其便宜,它这个里面输入的信息,100万TOKEN,15美分啊,非常非常便宜了。输出的信息呢,是100万TOKEN,60美分,也就相当于是100万4块多人民币啊,已经快要接近国内的这些模型的价格了。效能呢,也应该是比GPT3.5要强一些啊,这是GPT4O MINI的一个基本情况。