首页 - 自媒体资讯 > GPT-4o长上下文能力遭质疑:正确率仅55.8%,开源模型表现不如随机猜测

GPT-4o长上下文能力遭质疑:正确率仅55.8%,开源模型表现不如随机猜测

发布于:2025-01-21 作者:xcadmin 阅读:1 当前页面链接:https://lawala.cn/post/16754.html

GPT-4o长上下文能力遭质疑:正确率仅55.8%,开源模型表现不如随机猜测,GPT-4o,4,发布,5,第1张

【新智元导读】在当今的人工智能领域,大型语言模型(LLM)的发展可谓是日新月异,一些 LLM 号称能够支持百万级别的上下文长度,这听起来就像是给模型赋予了“超级大脑”,仿佛它们可以像拥有无限记忆的智者一样,处理海量的信息,事实可能并非如此美好,就像两个独立的研究项目所揭示的那样,这些看似强大的 LLM 或许只是在夸大其词,它们实际上可能并没有真正理解如此长篇大论的内容。

想象一下,我们的大脑在面对海量信息时,如果只是机械地存储而没有真正理解,那和一台只会记录数据却不会分析的机器又有什么区别呢?而这些 LLM 就如同被给予了一个巨大但可能并未真正有效利用的“知识宝库”,大数字总是容易吸引人们的目光,千亿参数、万卡集群,还有各大厂商竞相追逐的超长上下文技术,从一开始,这些概念和技术就承载着人们对人工智能的巨大期望,仿佛它们是开启智能新时代的钥匙。

:为什么说 LLM 号称支持百万级别上下文长度意义重大?

:因为这意味着如果能够真正做到,模型可以在处理复杂任务、理解长篇内容等方面有更出色的表现,就像人类在阅读大量书籍后能更好地理解和分析其中的信息一样,为各种应用提供更强大的支持,比如在自然语言处理、智能客服等领域可以更准确地回答复杂问题、生成更连贯的文本等。

:两项独立研究表明 LLM 不能理解长内容,这对 LLM 的发展有什么影响?

:这可能会让研究者和开发者重新审视 LLM 的技术和应用方向,他们需要寻找方法来改进模型架构或训练方式,以真正实现对长内容的有效理解;也会促使人们思考如何更合理地评估 LLM 的性能,避免过度夸大其能力,从而引导 LLM 向更实用、更可靠的方向发展。

二维码

扫一扫关注我们

版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件至 dousc@qq.com举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。

当前页面链接:https://lawala.cn/post/16754.html

标签: #GPT-4o #4 #发布 #5

相关文章

发表评论

自媒体

电话咨询
自定义链接2