机器学习POD 机器学习POD
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化

01
2026/02

大模型

MIT 提出 SDFT:作为逆强化学习(Inverse RL)的在线自蒸馏

论文标题:SELF-DISTILLATION ENABLES CONTINUAL LEARNING 论文链接:https://arxiv.org/p ...
6 天前
67 0

专题展示

MaxRL:重新审视强化学习与最大似然估计的统一
2 天前
Agentic RL 的新范式:在强化学习循环中融合规则、模型奖励与自然语言批评
3 天前
自蒸馏优化 SDPO:如何利用富文本反馈打破 RLVR 的信用分配瓶颈?
5 天前
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化
Copyright © 2017-2026 机器学习POD. 京公网安备11010802044892号 京ICP备2021031854号
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化