突破200万字文本交互!一年融资10亿美元,月之暗面模型再升级
3月18日,AI公司月之暗面(Moonshot AI)宣布,其旗下的自千亿参数大模型AI助手Kimi已经可以支持200万字文件的输入分析,即日开启
要知道,根据机器之心数据显示,尚未上线的GPT-4.5 Turbo上下文窗口指定为 256000 个 token,能同时能够处理约 200000 个单词,KIMI此次升级后长文本能力为其10倍。
随着KIMI长文本能力的提升,也意味着其能够完成更长和更复杂的任务。
/ 01 / AI大模型都在卷的上下文长度
AI助手Kimi200万的上传文本上限是个什么概念?作为对比,目前ChatGPT-4支持的token数量为32768,约为2.5万个中国汉字。而升级版智能助手Kimi的文本阅读量已经是GPT-4的80倍,是Gemini1.5的20倍。
事实上,提升上下文长度的事情也不止月之暗面在做。去年下半年开始,OpenAI、Anthropic等模型公司纷纷发布上下文长度的最新进展。今年2月,谷歌发布的Gemini 1.5Pro,再次将上下文刷新为100万 token,创下了最长上下文窗口的记录,相当于1小时的视频或者70万个单词。
上下文技术,是指模型在生成文本、回答问题或执行其他任务时,能够考虑并参照的前置文本的数量或范围,是一种大模型对信息理解深度和广度的评价维度。用通俗的话来说,如果参数规模大小比喻成模型的计算能力,那么上下文长度更像是模型的“内存”,决定了模型每轮对话能处理多少上下文信息,直接影响着AI应用的体验好坏。
比如,随着上下文窗口长度的增加,可以提供更丰富的语义信息,有助于减少LLM的出错率和「幻觉」发生的可能性,用户使用时,体验能提升不少。
在业内人士看来,上下文长度增加对模型能力提升意义巨大。用OpenAI开发者关系主管Logan Kilpatrick话说,“上下文就是一切,是唯一重要的事”,提供足够的上下文信息是获得有意义回答的关键。
在杨植麟看来,通往 AGI 的话,上下文长度将会成为一个很重要的点。根据杨植麟判断,AI-Native 产品的终极价值是提供个性化的交互,而无损长上下文是实现这一点的基础——模型的微调长期不应该存在,用户跟模型的交互历史就是最好的个性化过程,历史上每一代技术都是在提升上下文长度。
/ 02 / 90后创始人,一年融资10亿美元
作为一款专注于文档总结、会议纪要的办公类AI助手,Kimi能够帮助用户进行新闻分析、法律研读、中医药记录检索、财务报告审阅,例如,用户将一份26页的英文论文提交给Kimi,Kimi便可以生成文章大意。
超长文本分析能力、自动化内容生成能力和多类文件的支持检索能力让Kimi在中国大模型市场占领了领先地位,成为世界长文本LLM之最,被网友们亲切地称为“国产大模型之光”。
凭借出色的产品能力,月之暗面也受到了很多投资人的青睐。截至目前,月之暗面总共完成过两轮融资。第一轮融资发生在公司成立初,融资规模高达2亿美金,由红杉、真格等一线VC领头,市场估值约在3亿美元。
2月中旬,据此前晚点的报道,月之暗面完成了一轮8亿美元的B轮融资,此轮投资方为阿里巴巴和砺思资本。本轮结束后,月之暗面估值超过 23 亿美元。
从团队构成看,月之暗面拥有一支智力超群的学术团队,团队人均90后,且核心成员多出身于清华系。其中,公司创始人杨植麟是清华大学交叉信息研究院助理教授,年仅28岁。作为Transformer-XL和XLNet两篇论文的第一作者,他是中国35岁以下NLP自然语言处理领域引用量最高的人工智能学者。
对于最新的研发进展,月之暗面负责人表示公司将会跟进最新的多模态AI研发。或许在不久的将来,支持图文、视频、语音等多模态数据输入输出的AI助手Kimi就会出现在大家面前,我们拭目以待。
原文标题 : 突破200万字文本交互!一年融资10亿美元,月之暗面模型再升级
最新活动更多
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
7.30-8.1马上报名>>> 【展会】全数会 2025先进激光及工业光电展
-
精彩回顾立即查看>> 【线下论坛】华邦电子与莱迪思联合技术论坛
-
精彩回顾立即查看>> 【线下论坛】华邦电子与恩智浦联合技术论坛
-
精彩回顾立即查看>> 【线下巡回】2024 STM32 全球巡回研讨会
-
精彩回顾立即查看>> 2024先进激光技术博览展
-
2 拼多多,病入骨髓
-
10 携程集团,彻底爆了!
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论