在月之暗面的北京总部会议室,今年刚刚 31 岁的杨植麟正在摆弄他的笔记本。在下个会议开始之前,这位繁忙的创始人要抽出一个小时,为公司完成一些输出,并回应一些疑问。他全程神色轻松,能在时不时的玩笑中笑出来。这一个小时没有回应任何行业和产品以外的问题,但好像又充分展现了态度。在公司卷入风波一周后,这是一场突然且罕见的产品发布会,传递的信号言简意赅:公司的重心仍然在模型研发和产品推进上。
11 月 16 日,在 KimiChat 全量开放一周年之际,Kimi 发布新一代数学推理模型 k0-math,数学能力对标 openai 的 o1 系列。在中考、高考、考研以及包含入门竞赛题的 MATH 等 4 个数学基准测试中,k0-math 初代模型成绩超过 o1-mini 和 o1-preview 模型。在两个难度更大的数学题库 OMNI-MATH 和 AIME 基准测试中,k0-math 初代模型的表现分别达到了 o1-mini 最高成绩的 90% 和 83%。
Kimi 探索版在搜索体验上也加入了强化学习,在意图增强、信源分析和链式思考三大推理能力上有所提升。月之暗面方面表示,k0-math 模型和 Kimi 探索版,未来几周将会分批上线 Kimi 网页版和 Kimi 智能助手 APP。
作为此次产品发布的主讲人,杨植麟同时探讨了行业近段时间一系列关键议题。
杨植麟将 AI 技术过去几年的发展归功于 Scaling,但认为这不是简单将模型做大就可以,核心是找到有效的方法去 ScaleUp,比如说更好的数据或算法。同时,他提及背后的范式已经发生一些转变,例如要从 Next-TokenPrediction(预测下一个 token)转向更关注基于强化学习的 ScaleUp。这是让大模型打破静态数据集带来的局限性,进而具备思考能力去探索更艰难任务的重要环节。
对杨植麟而言,数学场景被认为是 AI 锻炼思考能力最适合的场景。他引用了伽利略的一段话,这个宇宙如果你把它看成一本很大的书,宇宙它其实是用数学来写的,数学是表达这个宇宙的语言。并且,在数学场景中,AI 不用跟外界交互就可以自成一体。
除了明确表示向强化学习进击之外,杨植麟对预训练模型作出了自己的评价和判断。他对 ScalingLaw 仍然乐观,认为预训练模型还有半代到一代的提升空间,这个空间大概率会由头部大模型在明年释放出来。杨植麟还透露 KimiChat 的月活用户规模达到 3600 万,他难得地强调,提升留存就是 Kimi 当前最核心的目标。
以下为杨植麟受访实录,略作编辑:
记者:你们预训练的情况现在是什么样的?
杨植麟:我觉得预训练还有空间,半代到一代的模型。这个空间会在明年释放出来,领先的模型会把预训练做到一个比较极致的阶段。但是我们判断接下来的重点会在强化学习上,范式上会产生一些变化。它还是 Scaling,只是通过不同的方式去 Scale。Scalinglaw 会不会有一个天花板或者上限?我相对来说比较乐观一点。核心在于原来用静态数据集是比较简单粗暴的使用方式,现在用强化学习的方式,很多情况下是有人在参与这个过程。但是人没有办法标注那么多数据,不可能把每道题具体的思路都标出来,所以你其实是用 AI 本身加上人的杠杆。比如说你标 100 条数据,就能产生非常大的作用,因为剩下的它都是自己在思考。它从做法上来说确定性是比较高的,因为很多时候(模型)是一个调出来的过程。我现在觉得大概率可以通过这种方式做出来,它上限是很高的。
记者:关于多模态模型的问题,Sora 马上要发了,大概是圣诞节之前,一直不做多模态的原因是什么?
杨植麟:我们也做,几个多模态的能力在内测。我是这样看的,AI 接下来最重要的是思考和交互这两个能力。思考的重要性远大于交互,不是说交互不重要,交互是一个必要条件,但思考会决定上限。你就看这个任务的标注难度有
本文地址:http://www.sosite.cn/zuixinwz/806.html