只要强化学习1/10成本!翁荔的Thinking Machines盯上了Qwen的黑科技
用1/10成本就能「吊打」强化学习,Thinking Machines最新一篇文章开源的这个策略,不看真OUT了!可在Tinker直接复现。
现在的大模型在特定领域能够达到专家级表现已经不足为奇。
但是能不能让模型变小的同时,也能在特定领域达到接近专家级表现?
现在通常的答案就是「模型蒸馏」(Model Distillation)。
比如DeepSeek-R1发布时,顺带着也发布了多个蒸馏模型(R1模型参数为671B,蒸馏模型都比较小,1.5B、7B、14B等)。

那还有没有更好的办法?
这就是今天要讲的On-Policy Distillation(同策略/在线策略蒸馏)。
这是一个Thinking Machines整的新活,这个新策略既有强化学习等在线策略方法的相关性和可靠性;又具备离线策略(Off-policy)方法的数据效率。

Mira Murati认为这个策略可以让小模型提升特定领域的表现,还能持续学习。

Lilian Weng夸赞新方法「优雅」。认为这个策略提供了一种优雅的方式,将教师模型作为过程奖励模型来提供稠密奖励。

特别声明:以上内容(如有图片或视频亦包括在内)为“我要久久发用户上传并发布”,本平台仅提供信息存储服务。
热门文章
- 1024程序员节京东开放“零帧起手”数字人技术
- 小鹏汽车携手华为,小鹏X9超级增程全球首发华为DriveONE下一代增程发电机
- OpenAI计划下周发布GPT-5.2应对谷歌竞争
- 华为李小龙:BT.2020因过于先进无法显示,直到Mate 80 RS上市
- 小米两大旗舰新机销量曝光:17系列累计超244万台
- 智惠低空 l 历正科技荣膺中国电信“2025年度杰出合作伙伴”称号
- 华为亮相2025数智科技生态大会,以全场景智慧生态“领航”数智新未来
- 聚焦新质生产力系列十一:5G-A赋能无人机“接棒”挑山工
- 留几手征婚要求女方是富婆
- 全国首艘氢电拖轮作业亮点多
- 哈尔滨采冰人零下20度开工
- 梁文锋入选《自然》年度十大科学人物
- 男子钓鱼偶遇“矜持”白鹭
- 美股三大指数集体收跌 特斯拉跌超3%
- 银行网点正消失:今年超9000家关停
- 经典版QQ宣布回归
- “人造太阳”何以照进现实
- 澎湃OS进展通报引热议:十个问题,为何仅修复一项?
- 更多全黑 Vision Pro 原型零件在网上曝光
- 小米智能门锁销量连续5年中国第一!出货量突破800万