机器学习POD 机器学习POD
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化

01
2026/02

大模型

MIT 提出 SDFT:作为逆强化学习(Inverse RL)的在线自蒸馏

论文标题:SELF-DISTILLATION ENABLES CONTINUAL LEARNING 论文链接:https://arxiv.org/p ...
2 月前
272 0

专题展示

Kimi 推出 Attention Residuals:用深度注意力替代固定残差连接
2 天前
OpenClaw-RL:仅通过“Talking”训练任何智能体
3 天前
微信团队提出 D3S:动态双层下采样加速大模型 RL 对齐
6 天前
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化
Copyright © 2017-2026 机器学习POD. 京公网安备11010802044892号 京ICP备2021031854号
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化