Gemini Ultra的发布似乎预示着AI领域的持续竞争,但其在性能测试中略微领先却未能完全超越GPT-4,这引发了人们对于当前AI模型的极限和未来发展的疑问。著名科技博客作者Hasan Chowdhury,近期在科技博客、新闻平台Business Insider上发布了:“How close are we topeak AI?”(我们离 AI 的巅峰还有多近?),文章指出:尽管Transformer模型作为LLM的神经网络展现了出色的记忆能力,但近期研究也指出了它们在泛化能力和推理方面的不足。这暗示了即便AI模型参数再增加,也不一定能突破当前的技术瓶颈,进一步接近人工通用智能(AGI)。
要点:
炒作情绪依然强劲,但AI已经达到巅峰了吗?
自从OpenAI在三月发布GPT-4以来,没有任何AI模型能够令人信服地击败它。
这引发了对从现在起性能上还能有多大突破的质疑。
我们距离进入ChatGPT后的世界仅仅一年,因此质疑我们是否已经达到AI的巅峰可能有些为时过早。技术的巅峰版本很少在第一年就出现,而且人工智能的主要目标——人工通用智能(AGI)——仍然是一个需要探索的领域。
然而,请听我说。
对于人工智能来说,这是一个巨大的一年。比尔·盖茨在周二发表的博客中详细阐述了“如今AI如何清晰地被运用于改善教育、心理健康等方面”。
但随着我们步入2024年,需要问的问题似乎不太在于AI将如何被使用。相反,更多地关注于今天最流行的技术形式——生成式人工智能——是否已经达到巅峰。
换句话说,今天最先进的生成式人工智能模型是否有可能实现性能上的突破?
研究人员表示,理论上性能的提升是可能的。但在实践中,要实现这些提升就更加困难了。
在Gemini发布之后,许多关于这个话题的讨论被激发了起来。这个备受期待的AI模型终于在12月6日亮相,被宣称为“谷歌迄今为止最具能力的AI模型”。
它也被认为是谷歌对OpenAI的GPT-4的回应,而GPT-4是支撑ChatGPT的大型语言模型。Gemini发布时距离GPT-4发布已有九个月,人们对它能推动生成式人工智能领域的发展寄予了很高的期望。
然而,谷歌自己的数据显示,达到期望并不容易。Gemini Ultra是谷歌AI模型的一个先进版本,将在明年推出,但在性能基准上几乎只略微领先于GPT-4。
在阅读理解方面的测评中,Gemini Ultra得分为82.4,而GPT-4为80.9。实际上,GeminiUltra在衡量日常任务常识推理的基准测试中输给了GPT-4。
沃顿商学院教授Ethan Mollick在周二对X表示:“已经过去一年了,没有人能击败GPT-4。”
一系列AI模型发布了,它们与OpenAI较早版本的LLM相匹配。埃隆·马斯克的Grok、开源模型Mixtral和谷歌的Gemini Pro模型似乎与GPT-3.5不相上下,尽管准确性略有降低。卡内基梅隆大学的研究人员于周一在ArXiv上提交了一篇预印本论文,证实了Gemini Pro的这一点。
但是目前还没有人能令人信服地击败GPT-4。
“他们会吗?这其中有什么魔法吗?这是否表明了LLM存在某种限制?GPT-4.5会不会是另一个巨大的飞跃?”Mollick在X上写道。
业界肯定希望看到一个巨大的飞跃。人工通用智能,基本上是指AI展示与人类同等水平的认知能力,这是OpenAI负责人Sam Altman等关键人物所公开宣称的目标。
尽管目前还没有出现一个能令人信服地击败GPT-4的模型,但有可能最终会出现一个。
Transformer模型是LLM的神经网络,当它们具有更多参数(即AI模型内的变量数量)时,它们的性能会有很好的扩展性。OpenAI并未公开其模型具有多少参数,但一些估计表明,GPT-3大约有1750亿个参数。
Mohamed bin Zayed人工智能大学的顾问Alex Voica告诉《BusinessInsider》,Transformer模型确实“与其获得的数据和计算量成正比地扩展”。
这意味着,如果你为这些模型提供更多的AI处理器(例如GPU),或者将它们的参数数量成倍增加,它们应该会表现得更好。
但这并不是十分实际的。“如果你是一家能够负担得起拥有大量数据的公司——目前只有少数几家公司有这样的条件——而且拥有大量的计算资源,那将是非常理想的。” Voica说道。
这不仅仅是一个实际问题。最近的研究指出,transformer可能存在其他限制,这些限制可能阻止该行业实现人工通用智能(AGI)。
谷歌的研究人员上个月发表了一篇论文,暗示transformer在泛化能力上并不是很好。如果Altman及其竞争对手希望他们基于transformer的技术能帮助他们实现AGI,这并不是一个好的迹象。
Voica表示,几家科技巨头正在研究解决方案。一个例子是世界模型(world model)。简单来说,这将是在transformer基础上的技术发展,赋予其一定的推理能力。
“Transformer模型相当于具有非常好的记忆力,但它的主要局限是一旦离开其非常出色的记忆范围,它很快就会崩溃,” Voica说道。
"然而,如果你能够在那个巨大的记忆基础上增加一些推理能力,也就是世界模型,那么你将拥有一种真正有用的东西。”
然而,看起来公司们还没有准备好让世界。
源于硅谷、扎根中国,上海殷泊信息科技有限公司 (MoPaaS) 是中国领先的人工智能(AI)平台和服务提供商,为用户的数字转型、智能升级和融合创新直接赋能。针对中国AI应用和工程市场的需求,基于自主的智能云平台专利技术,MoPaaS 在业界率先推出新一代开放的AI平台为加速客户AI技术创新和应用落地提供高效的算力优化和规模化AI模型开发、部署和运维 (ModelOps) 能力和服务;特别是针对企业应用场景,提供包括大模型迁移适配、提示工程以及部署推理的端到端 LLMOps方案。MoPaaS AI平台已经服务在工业制造、能源交通、互联网、医疗卫生、金融技术、教学科研、政府等行业超过300家国内外满意的客户的AI技术研发、人才培养和应用落地工程需求。MoPaaS致力打造全方位开放的AI技术和应用生态。MoPaaS 被Forrester评为中国企业级云平台市场的卓越表现者 (Strong Performer)。