
发布日期:2025-07-05 23:09 点击次数:74
眼光过 32B 的 QwQ 追平 671 的 DeepSeek R1 后——GEGEGAN
刚刚,7B 的 DeepSeek 蒸馏 Qwen 模子高出 o1 又是何如一趟事?
新形式 LADDER,通过递归问题看法已毕 AI 模子的自我改动,同期不需要东谈主工标注数据。
使 Deepseek-R1 蒸馏的 Qwen2.5 7B 模子在麻省理工学院积分大赛(MIT Integration Bee)上达到 90 分高出 o1。
详实,不是积分制的比赛哦,是只作念微积分中积分题的比赛,MIT 的数学高东谈主每年皆会挑战一次,题目像这么:
LADDER 论文来自微型沉寂询查团体Tufa Labs,论文已上传到 arXiv。
LADDER,全称 Learning through Autonomous Difficulty-Driven Example Recursion,即"通过自主难度驱动的样本递归进行学习"。
这个名字听起来有点拗口,但中枢其实很容易聚拢:等于让谈话模子(LLM)通过自我生成和求解渐进简化的问题变体,来抵制进步我方治理复杂问题的才智。
具体来说,LADDER 是一个结构化框架,由以下组件构成:
变体生成:一种结构化形式,用于生成复杂问题的从容简化变体的树,从而诞生当然的难度梯度。
一路向西电影解的考据:一种用于考据积看法的数值积分形式。
强化学习:用于在变体树上考试基础模子的合同。
而 LADDER 这个名字,也意味着像是模子学会了"爬梯子":通过自主生成一系列从易到难的问题变体,抵制训练和强化,最终爬到尖端。
以往的考试形式,老是离不开大范畴标注数据。
LADDER 操纵模子现存才智来生成问题变体,造成步骤渐进的难度梯度,最终已毕自举学习。扫数经过只需对谜底进行考据即可,无需东谈主工侵犯。
比较之前的形式,LADDER 有三大上风:
不再依赖东谈主工标注数据,裁减了数据获得本钱;模子通过生成问题变体构建针对性的学习旅途,学习更高效;生成的问题变体与原始问题干系性高,幸免堕入无关细节。
此外,作家还淡薄了一种翻新的测试时强化学习形式 TTRL。在推理阶段遭受复杂的数学积分测试问题时,TTRL 会动态生成一系列更简便的积分变体,模子通过治理这些变体来积攒教化,找到治理原始艰苦的形式。
这种测试时计较延迟的念念路,为进一步进步模子性能拓荒了新的谈路。不同于简便加多输出长度,TTRL 大概让模子在推理时针对性地"刷题",动态延迟才智范畴。
通过 LADDER,一个正本独一 1% 准确率的 Llama 3.2 3B 模子,在莫得任何东谈主工标注数据的情况下,解题准确率飙升至 82%。
更庞大的基础模子 Qwen2.5 7B Deepseek-R1 Distilled,在用上 LADDER 形式后,
MIT Integration Bee 比赛的获利就从 50% 提高到 73%。
终末,LADDER 加上 TTRL 形式,让最终获利达到 90。
不外作家也强调,与 o1 的对比不是严格的头党羽评估。
o1 无法打听数字查验器,这意味着它在不同的管理下启动。LADDER 的效用强调了通过递归问题看法和强化学习进行自我进步的有用性,而不是标明它胜仗优于 o1 的形式。
论文地址:https://arxiv.org/abs/2503.00735
参考联贯:
[ 1 ] https://x.com/yoshiyama_akira/status/1897662722679959583GEGEGAN