机器学习POD 机器学习POD
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化

01
2026/02

大模型

MIT 提出 SDFT:作为逆强化学习(Inverse RL)的在线自蒸馏

论文标题:SELF-DISTILLATION ENABLES CONTINUAL LEARNING 论文链接:https://arxiv.org/p ...
11 小时前
8 0

专题展示

MIT 提出 SDFT:作为逆强化学习(Inverse RL)的在线自蒸馏
11 小时前
GPT 之父 Alec Radford 新作:通过 Token 级数据过滤实现比 RLHF 更稳健的拒绝边界
1 天前
美团 LongCat 技术报告解读:在高稀疏度下,Embedding 扩展优于专家扩展
2 天前
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化
Copyright © 2017-2026 机器学习POD. 京公网安备11010802044892号 京ICP备2021031854号
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化