从ChapGPT到Sora,从数千亿参数到千万长文本,大模型浪潮下,永远不缺热点。近日,“Kimi概念股暴涨”“Kimi为宕机道歉”等词条先后冲上微博热搜,让月之暗面这家刚成立一年的人工智能公司进入越来越多公众的视野。
3月18日,月之暗面宣布Kimi智能助手启动200万字内测的动作,这引燃了大厂们新一轮“内卷”的热情,阿里巴巴直接将行业最高水平拉到1000万字,百度被曝下月开放200万-500万长度。3月23日下午,360也来凑热闹了,宣布正式内测500万字长文本处理功能。
去年还在拼参数,今年又拼起了长文本/无损上下文,一个大模型让互联网大佬们使尽了全身解数,可见万物皆可AI的大势已经不可阻挡。然而,数据上的领先只是暂时的理论成果,未来,解决问题的能力才是AI公司们真正筑起商业化大楼的底气。
数据比拼
和此前的参数竞赛不同的是,这轮大模型之间的竞争,不只停留在数据层面,还有概念上的“拉扯”。
仅从表面上的数据水平来看,360和百度打的是“安全牌”,并未在数据上猛冲。3月23日,360AI浏览器宣布正式内测500万字长文本处理功能,据用户反馈,该浏览器目前已可一分钟读完《三体》,并就文本外的“超纲”问题进行问答和延展学习。而在2月底时,360AI浏览器就已向用户免费开放100万字长文本阅读功能。
目前,360AI浏览器PC端已可免费下载使用,移动端也即将上线各大移动平台,该浏览器同时也支持对视频、音频、网页和中英文论文等常用文档类型的处理,可以帮助用户自动总结要点、生成思维导图等。
百度也被曝将于下个月对文心一言进行升级,届时也将开放长文本能力,文本范围在200万-500万。
相较于360和百度的“安全牌”,阿里巴巴打出的则是“一鸣惊人牌”,通义千问升级后直接向所有人免费开放1000万字的长文档处理功能,成为全球文档处理容量第一的AI应用。据悉,所有金融、法律、科研、医疗等领域的专业人士,都可通过通义千问网站和App快速读研报、分析财报、读科研论文、研判案情等。
要知道,目前国外头部大模型中,Open AI的GPT-4Turbo上下文窗口为12.8万tokens,谷歌的Gemini1.5支持100万tokens上下文。1个汉字通常相当于1-2个token,单从理论上分析,360AI浏览器、文心一言和通义千问的上下文窗口已经是这些头部大模型的好几倍。
而一开始引燃这场“战争”的月之暗面,给出的数据是200万,虽然和以前的20万字相比有极大提升,但和阿里巴巴的1000万字相比,还是小巫见大巫了。
概念“拉扯”
对于数据上的差距,月之暗面有自己的想法。
首先在概念上,月之暗面给出的是200 万字无损上下文长度,而不是长文本。“之所以不能称为‘长文本’,是因为输入的信息不只是文本,也可以是图片、录音、视频、动作等多模态的信息。”月之暗面相关负责人对《华夏时报》记者表示。
另外,上述负责人指出,一些产品对数百万甚至上千万字的文档支持,通常采用的并不是无损长上下文窗口的方案,而是一种被称为检索增强生成(RAG)的方案,这种方式是从文档中搜索出相关的部分内容,然后将这些内容给到大模型去做推理,模型的真实上下文窗口长度,也就是真正输入给模型去推理的内容,仍然是 3 万字左右(以当前市场上常见的32K上下文窗口模型为例)。“以读书来比喻的话,支持长上下文窗口的模型是真的逐字读了一本书,然后跟你讨论书的内容;RAG方案是读了几个摘抄片段,然后跟你讨论书的内容。讨论的深度和精度自然不可同日而语。”
一石激起千层浪,或许就连月之暗面也没想到,自己的一个动作能引发这么多互联网大佬的竞逐,让AI市场再起涟漪。
月之暗面为200万字无损上下文的能力提供了多个场景,也确实吸引了众多尝鲜的用户:上传一份完整的近百万字中医诊疗手册,让 Kimi 针对用户的问题给出诊疗建议;上传英伟达过去几年的完整财报,让 Kimi分析总结英伟达历史上的重要发展节点;上传几十万字的经典德州扑克长篇教程,让 Kimi 扮演德扑专家提供出牌策略的指导……
由于众多用户涌入,系统流量持续异常增高,3月21日Kimi的App和小程序出现宕机现象,月之暗面对此表示抱歉。
有意思的是,当国内大模型卷向长文本的同时,爱跨界的马斯克还在卷参数。3月18日,马斯克的AI创企xAI正式发布开源大模型Grok-1,其参数量达到3140亿,超过Open AI GPT-3.5的1750亿,一举成为迄今参数量最大的开源大语言模型。
艾媒咨询CEO兼首席分析师张毅对《华夏时报》记者表示,参数之争到长文本之争的变化,本质上是大模型更加贴近用户的使用和需求场景。“长文本的主要应用领域,目前主要集中在方案、合同、论文、法律文书、科普、小说、文字策划、广告创意等文本处理的场景。”
因此当Kimi突然爆火时,大涨的概念股基本为影视、传媒类的公司。截至3月22日收盘,慈文传媒涨停,华策影视、掌阅科技和中广天择都是三连板。
商业价值待估
除了引燃概念股,Kimi的跨越式升级也在业内引发了对AI应用落地和商业化的期待。
平安证券发布研究报告称,Kimi无损长文本模型的出现,解决了很多大模型在应用中的痛点,打开了大模型的应用空间,AIGC最终的落地,还是要找到合适的场景,Kimi作为千亿大模型,能够支持复杂运算,同时还能接受和处理大文本,解决了很多大模型实际应用中的难题,后续商业化潜力将凸显。
那么,接下来要探讨的问题,就是商业模式。
张毅推断,GPT是用户通过付费方式使用的,但国内的大模型竞争在初期就如此激烈,很有可能会走上过去搜索引擎的路子,免费恐怕是一个主要方向。“所以未来也可能是‘羊毛出在猪身上’成为普遍现象,当然,垂直化应用场景、个性化解决方案,也是大模型文本未来的商业突破之道。”
随着Kimi的爆火,月之暗面自身的商业化诉求正在变得强烈。该公司相关负责人向《华夏时报》记者透露,面对高峰时期 Kimi 会提示需要等待等问题,有用户反映是否可以付费解决,所以今年公司会有初步的方案出来。
商业化诉求背后是文本能力越强成本越高的现实问题。上述负责人表示,当模型支持的上下文窗口长度越长,精度越高(信息越无损),模型推理成本也会呈指数级上升,所以月之暗面会在工程上做一些创新探索,想办法尽快降低成本,让更多有需求的用户体验到超长无损上下文窗口能力。“如果是检索增强生成(RAG)的方案,模型本身的推理成本几乎没有变化,因为实际输入模型的上下文窗口长度没有发生变化。”
对于长文本带来的成本变化和商业化问题,《华夏时报》记者也采访了360方面,截至发稿,对方未给出回复。
但数据上的比拼,以及商业化能力的体现,最终还是要落实到真正的应用、用户体验上。
在张毅看来,从某种意义上讲,如果应用体验做得足够好,大模型长文本的商业化应用场景是存在的。“目前大模型的智能化程度还有待改善,结合具体的应用需求,国内大模型在数据、文字和设计创新上与国外头部大模型相比还有一定的差距,未来长文本的发展格局,或许就是看哪家能在这些方面有更好的表现,是否能够形成更大的竞争力。”