分类问题与回归问题的损失函数

分类问题损失函数

多分类交叉熵损失Softmax

img

其中:

1.y 是样本 x 属于某一个类别的真实概率[用0,1表示]

2.而 f(x) 是样本属于某一类别的预测分数

3.S 是 softmax 激活函数,将属于某一类别的预测分数转换成概率

4.L 用来衡量真实值 y 和预测值 f(x) 之间差异性的损失结果

公式鼓励模型对正确类别给出高概率,对错误类别给出低概率。当预测完全正确时,损失为0;当预测错误时,损失会变大。

二分类损失----对数似然损失(Log Loss)

在处理二分类任务时,我们不再使用softmax激活函数,而是使用sigmoid激活函数,那损失函数也相应的进行调整,使用二分类的交叉熵损失函数:

img

其中:

  1. y 是样本x属于某一个类别的真实概率
  2. 而y^是样本属于某一类别的预测概率
  3. L用来衡量真实值y与预测值y^之间差异性的损失结果。

焦点损失 (Focal Loss)

它是交叉熵损失的改进版本 , 由何恺明等人在2017年提出,最初用于解决目标检测中的前景-背景类别不平衡问题。

FL(pt) = -α(1-pt)^γ * log(pt)

其中:

  • pt 是模型预测的概率

  • α 是平衡因子(用于平衡正负样本)

  • γ 是聚焦参数(用于调节简单样本的权重)

  • 原理:

    • 焦点损失通过降低容易分类的样本(高置信度预测)的权重,使模型更关注难以分类的样本。
    • (1-pt)^γ项使得易分样本(pt接近1)的损失贡献较小,而难分样本的损失贡献较大。
  • 优点:

    • 有效解决类别不平衡问题,特别是在极度不平衡的情况下。
    • 自动降低简单样本的权重,让模型更专注于难样本。
    • 不需要进行硬性的样本挖掘。
  • 应用:

    • 目标检测
    • 图像分类
    • 其他存在类别不平衡的分类问题
  • 参数调节:

    • γ 通常设置为0到5之间。γ 越大,对易分样本的抑制越强。
    • α 可以设置为类别频率的倒数,也可以通过交叉验证调整。

回归问题损失函数

又称loss function/cost function 目标函数 成本函数

以下公式中, h(x^i )为拟合函数,y^i 为真实值

最小二乘损失计算:

img

均方误差 (Mean-Square Error, MSE) 又叫L2损失

img

平均绝对误差 (Mean Absolute Error , MAE) 又叫L1损失

img

注MSE与MAE既能在模型训练阶段作为损失函数求解拟合函数最优解 , 又可作为模型评估阶段, 衡量已有模型误差大小

smooth L1 lose

平滑后的L1lose,分段函数

img

其中:𝑥 = f(x) − y 为真实值和预测值的差值。

从下图中可以看出,该函数实际上就是一个分段函数

  1. 在[-1,1]之间实际上就是L2损失,这样解决了L1的不光滑问题
  2. 在[-1,1]区间外,实际上就是L1损失,这样就解决了离群点梯度爆炸的问题


分类问题与回归问题的损失函数
https://linxkon.github.io/分类问题与回归问题的损失函数.html
作者
linxkon
发布于
2022年1月11日
许可协议