长期以来,人工智能(AI)领域一直奉行“数据规模越大越好”的信念,但近期业界却传出了大模型进化遭遇数据墙的消息。据报道,OpenAI、谷歌和Anthropic在开发新一代模型时遭遇了瓶颈,无法实现此前那样的突破性进展。
据外媒报道,OpenAI、谷歌和Anthropic在AI模型开发方面都陷入了瓶颈,他们发现,新模型无法像前面几代产品那样带来巨大的飞跃。其中,OpenAI的下一代旗舰模型Orion在测试中表现不如预期,进步程度明显低于GPT-3到GPT-4之间的进步。
缺乏高质量人造训练数据是AI模型开发面临挑战的一大原因。例如,Orion在编程任务上的表现不尽如人意,部分原因是缺乏足够的编程数据进行训练。
AI模型开发遇阻的消息公开后,引起了AI圈的热议,知名AI评论家加里·马库斯直言:“游戏结束,我赢了!我早就说过,GPT正在陷入收益递减阶段。”
OpenAI前首席科学家伊利亚·苏茨克维等业界大佬也指出,大模型的规模法则已经达到极限,必须转变思维,改变训练模式。
不过,OpenAI CEO阿尔特曼和Anthropic CEO达里奥·阿莫迪都对瓶颈说进行了反驳。他们认为,AI模型的进步依然有着广阔的空间,只是需要探索新的方法来克服数据墙的限制。
尽管对数据墙的争议仍在继续,但各大AI公司已经开始积极调整策略,转向应用赛道的探索。百度CEO李彦宏认为,基础模型早期快速迭代是正常的,但如果持续时间过长,可能会扰乱整个生态。
Meta CEO扎克伯格也表示,即使在现有技术的基础上,应用层面依然有很大的发展空间。因此,OpenAI、谷歌和Anthropic等公司正在将目光转向医疗、金融等特定领域,探索AI模型的实际应用。
OpenAI正在研究如何解决训练数据匮乏的问题,以及如何调整规模法则的应用,保持模型稳步发展。OpenAI还将重点放在开发生成式人工智能(AGI)的安全和负责任使用上。
谷歌也在积极调整策略,重点发展特定领域的AI模型。例如,谷歌推出了基于Transformer架构的语言模型Gemini,专门用于医疗信息处理。
Anthropic成立于2021年,由前OpenAI研究人员创立。该公司致力于开发安全、可信赖的AGI,并与微软合作,将Anthropic的语言模型Clade整合到必应搜索引擎中。
AI模型进化遭遇数据墙,标志着AI领域的一次重大转变。各大AI公司不再仅仅追求模型规模的扩大,而是开始探索新的方法来克服数据限制,开发更实用、更安全的AI模型。
AI的未来发展方向将更加注重应用场景的落地,推动各行各业的智能化进程。可以预见,在未来几年内,我们将看到AI技术在医疗、金融、教育等领域取得更加广泛的应用,为人类社会带来更多便利和进步。
本文地址:http://www.sosite.cn/zuixinwz/810.html