只要强化学习1/10成本!翁荔的Thinking Machines盯上了Qwen的黑科技
用1/10成本就能「吊打」强化学习,Thinking Machines最新一篇文章开源的这个策略,不看真OUT了!可在Tinker直接复现。
现在的大模型在特定领域能够达到专家级表现已经不足为奇。
但是能不能让模型变小的同时,也能在特定领域达到接近专家级表现?
现在通常的答案就是「模型蒸馏」(Model Distillation)。
比如DeepSeek-R1发布时,顺带着也发布了多个蒸馏模型(R1模型参数为671B,蒸馏模型都比较小,1.5B、7B、14B等)。

那还有没有更好的办法?
这就是今天要讲的On-Policy Distillation(同策略/在线策略蒸馏)。
这是一个Thinking Machines整的新活,这个新策略既有强化学习等在线策略方法的相关性和可靠性;又具备离线策略(Off-policy)方法的数据效率。

Mira Murati认为这个策略可以让小模型提升特定领域的表现,还能持续学习。

Lilian Weng夸赞新方法「优雅」。认为这个策略提供了一种优雅的方式,将教师模型作为过程奖励模型来提供稠密奖励。

特别声明:以上内容(如有图片或视频亦包括在内)为“我要久久发用户上传并发布”,本平台仅提供信息存储服务。
热门文章
- 1000个官方媒体网站发布广告,每天百万人次曝光,帮您客户覆盖全国,业绩翻倍!
- 义乌爆单!全球采购商蜂拥而至
- 中药手串是真养生还是纯噱头
- 猛降20℃!全国乱穿衣地图出炉
- 华莱士正式宣布退市
- 何小鹏:应该向华为苹果等企业学习
- “龙虾”全网刷屏 劝你不要盲目跟风
- 7旬老人7天跑遍7大洲:目标跑到100岁
- 别把早午餐二合一
- 36岁,能开上这3款车就算小有成就
- 10万级SUV对决:宋Pro DM-i与埃安AION i60谁是优选?
- 投资人下班疯狂补习“养龙虾”
- 大学生寒假无休送外卖收入过万
- 中传一口气砍掉16个本科专业
- 黄金品牌涨价 50克金手镯贵了5万
- 超8成胖东来员工拒绝“降薪增假”
- Ella展示“真空腹” 震惊观众
- 初二男生贴助长贴一年长高11厘米
- 为什么中年男人去哪都要开车
- 包书皮真有必要吗