内侧通道" />
侵权投诉
搜索
更多>> 热门搜索:
订阅
纠错
加入自媒体

突破200万字文本交互!一年融资10亿美元,月之暗面模型再升级

2024-03-20 14:03
乌鸦智能说
关注

3月18日,AI公司月之暗面(Moonshot AI)宣布,其旗下的自千亿参数大模型AI助手Kimi已经可以支持200万字文件的输入分析,即日开启内侧通道。

要知道,根据机器之心数据显示,尚未上线的GPT-4.5 Turbo上下文窗口指定为 256000 个 token,能同时能够处理约 200000 个单词,KIMI此次升级后长文本能力为其10倍。

随着KIMI长文本能力的提升,也意味着其能够完成更长和更复杂的任务。

/ 01 / AI大模型都在卷的上下文长度

AI助手Kimi200万的上传文本上限是个什么概念?作为对比,目前ChatGPT-4支持的token数量为32768,约为2.5万个中国汉字。而升级版智能助手Kimi的文本阅读量已经是GPT-4的80倍,是Gemini1.5的20倍。

事实上,提升上下文长度的事情也不止月之暗面在做。去年下半年开始,OpenAI、Anthropic等模型公司纷纷发布上下文长度的最新进展。今年2月,谷歌发布的Gemini 1.5Pro,再次将上下文刷新为100万 token,创下了最长上下文窗口的记录,相当于1小时的视频或者70万个单词。

上下文技术,是指模型在生成文本、回答问题或执行其他任务时,能够考虑并参照的前置文本的数量或范围,是一种大模型对信息理解深度和广度的评价维度。用通俗的话来说,如果参数规模大小比喻成模型的计算能力,那么上下文长度更像是模型的“内存”,决定了模型每轮对话能处理多少上下文信息,直接影响着AI应用的体验好坏。

比如,随着上下文窗口长度的增加,可以提供更丰富的语义信息,有助于减少LLM的出错率和「幻觉」发生的可能性,用户使用时,体验能提升不少。

在业内人士看来,上下文长度增加对模型能力提升意义巨大。用OpenAI开发者关系主管Logan Kilpatrick话说,“上下文就是一切,是唯一重要的事”,提供足够的上下文信息是获得有意义回答的关键。

在杨植麟看来,通往 AGI 的话,上下文长度将会成为一个很重要的点。根据杨植麟判断,AI-Native 产品的终极价值是提供个性化的交互,而无损长上下文是实现这一点的基础——模型的微调长期不应该存在,用户跟模型的交互历史就是最好的个性化过程,历史上每一代技术都是在提升上下文长度。

/ 02 / 90后创始人,一年融资10亿美元

作为一款专注于文档总结、会议纪要的办公类AI助手,Kimi能够帮助用户进行新闻分析、法律研读、中医药记录检索、财务报告审阅,例如,用户将一份26页的英文论文提交给Kimi,Kimi便可以生成文章大意。

超长文本分析能力、自动化内容生成能力和多类文件的支持检索能力让Kimi在中国大模型市场占领了领先地位,成为世界长文本LLM之最,被网友们亲切地称为“国产大模型之光”。

凭借出色的产品能力,月之暗面也受到了很多投资人的青睐。截至目前,月之暗面总共完成过两轮融资。第一轮融资发生在公司成立初,融资规模高达2亿美金,由红杉、真格等一线VC领头,市场估值约在3亿美元。

2月中旬,据此前晚点的报道,月之暗面完成了一轮8亿美元的B轮融资,此轮投资方为阿里巴巴和砺思资本。本轮结束后,月之暗面估值超过 23 亿美元。

从团队构成看,月之暗面拥有一支智力超群的学术团队,团队人均90后,且核心成员多出身于清华系。其中,公司创始人杨植麟是清华大学交叉信息研究院助理教授,年仅28岁。作为Transformer-XL和XLNet两篇论文的第一作者,他是中国35岁以下NLP自然语言处理领域引用量最高的人工智能学者。

对于最新的研发进展,月之暗面负责人表示公司将会跟进最新的多模态AI研发。或许在不久的将来,支持图文、视频、语音等多模态数据输入输出的AI助手Kimi就会出现在大家面前,我们拭目以待。

       原文标题 : 突破200万字文本交互!一年融资10亿美元,月之暗面模型再升级

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    通信 猎头职位 更多
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号