Lazy loaded image
知识总结
🧠FML Math Background
Words 264Read Time 1 min
2025-4-4
2025-6-3
type
status
date
slug
summary
tags
category
icon
password
 
😀
这是对 FML 附录部分涉及到的一些数学背景做一些总结

Entropy

Amount of Information

notion image

Shannon Entropy

notion image
notion image

Cross Entropy

机器学习中的实际应用:
其中:
  • 是样本数量。
  • 是类别数量。
  • 是样本 的真实分布, 若样本 属于第 类,则 , 否则为 0.
  • 是模型对样本 属于类别 的预测概率
🛠
在分类问题中真实分布 是隐式的, 即是确定的, 非 1 即 0。
  1. Logistic regression 的损失函数
这个损失函数是通过MLE推导出来的
notion image
  1. 神经网络中的 Cross Entropy Loss
     

    Divergence

     

    KL Divergence

    Kullback-Leibler Divergence (Relative Entropy)
    notion image

    Slides

     

    📎 参考资料

    【10分钟】了解香农熵,交叉熵和KL散度_哔哩哔哩_bilibili
    10分钟了解香农熵,交叉熵和KL散度KL散度(相对熵)是机器学习中衡量两个分布近似程度的一个重要概念,本视频通过一些简单的例子对KL散度的表示形式进行介绍,从熵的含义开始,到交叉熵的含义,最后到KL散度的定义以及它的一些直观意义。未来计划将基于KL散度来介绍变分推理这一重要概念,变分推理对理解最近很火的生成式模型有着很重要的作用。, 视频播放量 47298、弹幕量 98、点赞数 2092、投硬币枚数 1566、收藏人数 3194、转发人数 284, 视频作者 车库里的老锤, 作者简介 老锤和大家一块探索人工智能,机器人,相关视频:一个视频彻底搞懂交叉熵、信息熵、相对熵、KL散度、交叉熵损失、交叉熵损失函数、softmax函数、softmax求概率、各种熵的公式,“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”,【官方双语】一个视频理解交叉熵 Cross Entropy,信息量 |熵 | 交叉熵 |KL散度 (相对熵)|交叉熵损失函数,你真的理解交叉熵损失函数了吗?,【机器学习】重新理解线性回归 - 1 - 极大似然估计,【官方双语】交叉熵损失函数怎么进行反向传播来优化神经网络参数?,【 深度学习 】熵,交叉熵,KL散度 Entropy, Cross-Entropy and KL-Divergence(英文),【15分钟】了解变分推理,机器学习中的基本概念:信息熵,交叉熵和KL散度(讲的超好)
    【10分钟】了解香农熵,交叉熵和KL散度_哔哩哔哩_bilibili
    上一篇
    Matrix Calculus
    下一篇
    FML Chapter 2