人工智能(AI)的发展一直建立在这样的信念之上:训练数据规模越大,模型就会越来越好。业界近期曝出了大模型进化遭遇数据墙的消息。据外媒报道,OpenAI、谷歌和Anthropic在AI模型开发方面都陷入了瓶颈,他们发现,新模型无法像前面几代产品那样带来巨大的飞跃。这在AI圈瞬时炸开了锅。
图灵奖得主杨立昆(Yann LeCun)和OpenAI前首席科学家伊利亚·苏茨克维(Ilya Sutskever)等科技圈大佬不客气地指出,大模型的规模法则(Scaling Law)已经达到极限,必须转变思维,改变训练模式了。而OpenAI CEO阿尔特曼(Sam altman)和Anthropic CEO达里奥·阿莫迪(Dario Amodei)都相继对瓶颈说进行反驳。
尽管如此,OpenAI和谷歌都在积极转变策略,研究如何解决训练数据匮乏的问题,以及如何调整规模法则的应用,保持模型稳步发展。在百度CEO李彦宏看来,模型开发放缓也不见得是一件坏事。在最近的一次访谈中,他表示,基础模型早期快速迭代是正常的,但如果两年、三年了还这样,那整个生态其实是会比较乱。Meta CEO扎克伯格也表示,即使在现有技术的基础上,应用层面依然有很大的发展空间。
据外媒,OpenAI的下一代旗舰模型可能不会像前面几代产品那样带来巨大的飞跃。测试代号为Orion的新模型的员工发现,尽管新模型性能超过了OpenAI现有的模型,但进步程度并不如从GPT-3到GPT-4的进步那么大。换句话说,OpenAI改进的速度似乎正在放缓。
OpenAI并不是唯一遭遇阻碍的公司,其竞争对手谷歌和Anthropic也传出了先进AI模型开发遇到瓶颈的消息。在以惊人的速度推出日益复杂的AI产品之后,这三家领先的AI公司现在意识到,他们在开发新模型上进行的大量投入所带来的回报正在逐渐减少。
高质量人造训练数据的缺乏是AI模型开发面临挑战的一大原因。外媒援引两位知情人士称,Orion在编程任务上的表现不尽如人意,部分原因是缺乏足够的编程数据进行训练。即使是有一些小幅的改进,也难以证明新模型构建和运营的高昂成本是合理的,这与市场对于重大升级的期待之间存在差距。
AI模型开发遇阻的消息公开后,知名AI评论家加里·马库斯(Gary Marcus)甚至直接单方面宣布胜利:游戏结束,我赢了!我早就说过,GPT正在陷入收益递减阶段。一直以来,马库斯就预测,生成式AI的发展将进入停滞阶段。
AI怀疑论者经常警告,仅仅通过扩大规模来提高大模型的方法是有限的。一年前,比尔·盖茨就表示,有很多理由相信,当前生成式人工智能(AGI)已经达到极限。GPT-5不会比GPT-4好多少。
OpenAI前首席科学家、Safe Superintelligence联合创始人苏茨克维近日在接受外媒采访时也表示,扩大预训练的结果已经达到了平台期。所谓预训练,即使用大量未标记数据来训练AI模型以理解语言模式和结构的阶段。Meta首席科学家、图灵奖得主杨立昆还转发了苏茨克维这条新闻,并评论,我早就告诉过你们了,Meta早就开始转型了。
尽管阿尔特曼驳斥了瓶颈一说,但OpenAI也一直在进行第二手准备。OpenAI成立了一个基础团队,由之前负责预训练的Nick Ryder领导。该团队主要探索如何应对训练数据的匮乏,调整规模法则的应用,保持模型改进的稳定性。
例如,OpenAI的研究人员开始采用AI生成的合成数据来训练他们的模型。合成数据是一种人造数据,可以用来弥补真实数据中的不足。OpenAI还正在探索使用强化学习来微调他们的模型,以提高他们的性能。
AI模型开发的未来仍然充满不确定性。尚不清楚大模型的发展是否已经达到极限,或者研究人员是否能够找到解决训练数据匮乏问题的途径。很明显,AI行业正在发生重大转变。科技公司正在探索新的策略来开发AI模型,应用人工智能的范围也在不断扩大。随着时间的推移,人工智能将对我们的生活和工作方式产生深远的影响。
本文地址:http://www.sosite.cn/zuixinwz/815.html
上一篇:能力可比肩OpenAI月活超3600万Kimi数学推理...
下一篇:美医药股暴跌;机构看涨比特币破10万美元;普京...