机器学习POD 机器学习POD
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化

26
2026/03

大模型

微软新研究:Self-Distillation 会降低大模型的推理能力

让每一项优秀工作,被更多人看见:点击进入投稿通道 论文标题:Why Does Self-Distillation (Sometimes) Degrad ...
9 小时前
6 0

专题展示

微软新研究:Self-Distillation 会降低大模型的推理能力
9 小时前
Qwen 团队新作:「稀疏但关键」从词元视角解析大模型 RLVR 微调的分布偏移
1 天前
Kimi 推出 Attention Residuals:用深度注意力替代固定残差连接
1 周前
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化
Copyright © 2017-2026 机器学习POD. 京公网安备11010802044892号 京ICP备2021031854号
  • 机器学习基础
  • 强化学习基础
  • 大模型
  • 其它
  • 大模型可视化