av网站大全

发布日期:2024-09-16 10:30    点击次数:104

twitter 拳交 GPT未竟的立异,由o1接棒:或是LLM辩论最挫折的发现

天地武功唯快不破twitter 拳交,但 OpenAI 不走寻常路,新出的 o1 系列宣告天地:

咱们更慢,但更强了。

o1 要花更多的时辰想考问题,再作念出响应,但在复杂推理层面平直窜了几个档位。

在海外数学 (IMO) 履历查验中,GPT-4o 仅正确惩办了 13% 的问题,而 o1 得分为 83%。

好家伙,这数学水平,上一次碰面照旧小学生,当今平直博士毕业了?

OpenAI 也很情景,暗示 o1 照旧达到AI才略新高度了,是以平直把计数重置到1,开启新的大模子系列 OpenAI o1。

本次 OpenAI o1系列分为三个型号,最强但还未发布的 o1,o1 的预览版 o1-preview,和性价比最高的轻量版 o1-mini。

之前的 GPT 系列还被诟病更新“挤牙膏”,没猜度 OpenAI 一直齐是老神色,不鸣则已一鸣惊东说念主,平直给 AI 界来了个大大地面震。

轮廓齐集对于 o1 的报说念和辩驳,咱们贯注到几个关节信息:

这可能是Scaling Law建议以来,LLM领域最挫折的发现。这一进展的中枢是推理时辰和参数规模两条弧线的协同作用,而不是单一弧线;

与强化学习的竣工结合,可能为咱们指明了通往东说念主工通用智能(AGI)的有用旅途(此前AI科技辩驳8月28日曾举办《大模子期间的强化学习》齐集探究会,筹算了强化学习与大模子的结合,感兴趣的一又友点击下方勾搭进行回看);

o1 并非 GPT-4o 的升级版块,目下仍然无法惩办像黎曼假定这样极其复杂或通达的问题,也没能惩办幻觉问题。

OpenAI 对大模子的此次从头构想,无疑将对大模子的改日走向和通盘AI领域的花样产生长远影响。

OpenAI的又一里程碑

奥特曼暗示,o1 是他们迄今为止功能最深广、最一致的模子系列,仅仅使用的时候要花更多时辰(凡尔赛了)。

如图所示,o1 在绝大无数重推理任务中显贵优于 GPT-4o

正在休长假、千里寂了一个月的 OpenAI 的另一位联创 Greg Brockman 行云活水写了一长段推文,一本道表扬了 o1 的超强性能,并格外指出 o1 是第一个使用强化学习教练的模子,会在酬报问题之前进行深入的想考。

lmsys 也立时在 Chatbot Arena 更新了 o1-preview 和 o1-mini,接待公共测试。

参与研发o1的 Shengjia Zhao 很谦卑地暗示,o1 并不是竣工的,也不会合适所有事情。不外东说念主们能感受到它后劲无穷,并再一次感受到 AGI。

Jim Fan 觉得,o1 线路出的辩论进展可能是自 2022 年 OG Chinchilla 缩放定律以来 LLM 辩论中最挫折的发现。

他还提到了两篇近期发表的对于 Scaling Law 的论文,并指出 OpenAI 早已意志到这小数,并通过 o1 阐明了这些发现。

大模子+强化学习=AGI?

大模子与强化学习的结合是近几年来的热点辩论方针之一。

大模子的泛化才略和布景常识与强化学习的交互学习和任务优化相结合,不错创建出大略更好地适合复杂环境、惩办多任务问题、并提供更高效和可解释有经营的智能系统。这种互补性使得两者的结合成为股东东说念主工智能发展的挫折方针。

o1 大模子的发布,初次解释了言语模子不错进行信得过的强化学习。而 OpenAI 的一位辩论员说,o1 解释了强化学习才是通往 AGI 说念路上的必备因素(RL辩论者狂喜)。

telegram 裸舞

OpenAI 另一位专注推理的辩论员也说,通过强化学习,o1 大略在作念出响应进行“想考”,让他们毋庸再受预教练的瓶颈扫尾,终于不错作念扩张推理诡计了。

强化学习和LLM不错说吊祭常适配了,只不外在 o1 之前还莫得东说念主能用 LLM 信得过已矣强化学习。

之前就有东说念主说,效法是 LLM 教练的基础,而效法其实即是强化学习的问题。

DeepMind 的新论文也有提到,与监督学习比拟,强化学习不错更好地应用序列结构、在线数据并进一步索要奖励。

领导 DeepMind 强化学习辩论小组的David Silver,也在前段时辰的演讲中强调,“需要从头关爱强化学习,才略走出 LLM 低谷。”

局限

不外,一众好评声中,也有东说念主指出了 o1 存在的一些问题。

Andrej Karpathy 在测试后发推特说,o1-mini 照旧有大模子的老非常,问它黎曼假定这类复杂问题就偷懒销亡。

Gary Marcus 觉得 o1 并不是通用东说念主工智能(AGI),甚而离 AGI 还很远。

他机敏所在出了 o1 的八条问题,从多个方面品评了o1模子的细节露馅不及、改良不够全面,觉得实质测试与宣传间存在差距,并请示猝然者要在意。

Hugging Face 的 CEO 也暗示,AI 并不是在想考,仅仅在在“处理”、“开动考虑”……和谷歌或者诡计机作念的事情是一样的。这种时刻系统是东说念主类的乖张印象,仅仅低价的骗术和营销技能,让东说念主误以为它比实质更机灵。

OpenAI 我方也承认了 o1 的不及。在一些当然言语任务测试中,尤其是写稿才略方面,GPT-4o 照旧更胜一筹。

况兼,o1 的推理依然存在残障,在已矣质的进步的同期也没能惩办LLM的幻觉问题。

盛名活动员、Django Web 框架的相连创建者 Simon Willison 在推特上收罗在 GPT-4o 上推理失败,但在 o1 告捷的例子,只找到了几个让他满足的案例。他觉得从推理来看,o1 并不是 GPT-4o 的升级版。

他在博客中写说念,o1 并不是简便的 GPT-4o 升级版,而是通过在资本和性能方面引入首要衡量,交流了更进一步的推理才略。

很彰着,o1 和 GPT-4o 代表大模子的两个不同方针。OpenAI 也提到,以后会区别研发升级两个模子,这意味着,以前适用于 GPT-4o 的 Prompt 技巧或然雷同适用于 o1。

实测

那么,o1 的施展到底怎样样呢?

在 Toqan 的排名榜中,咱们不错看到 OpenAI O1 模子在 ProLLM StackUnseen 基准测试中施展出来的水平,比 SOTA 要进步 20%。

elvis 作念了详备测试,他提到 o1-preview 大略一次性惩办许多难以酬报的问题,包括许多刻下大型言语模子(LLMs)难以处理的数学问题。

他的完整测试视频照旧上传YouTube,不错点击以下勾搭不雅看:

https://www.youtube.com/watch?v=xJJ2h3wQByg

OpenAI 首席辩论官 Bob McGrew 在The Verge的采访中说,“从根柢上说,o1 是一种新的模子模式,大略惩办信得过障碍的问题,从而达到与东说念主类相似的智能水平。”雷峰网雷峰网

o1-preview和o1 mini照旧带给咱们这样多惊喜,不敢想终末发布的o1到底能有多强悍,让咱们翘首企足。





Powered by 女生 自慰 @2013-2022 RSS地图 HTML地图

Copyright Powered by365站群 © 2013-2024