-
提出它是为了解决样本的类别不均衡的问题,包括正负样本不均衡和难易样本不均衡
-
它是在交叉熵损失的基础上修改的。因为数据标签会使用one-hot的方式,所以交叉熵损失实际上是样本真实标签对应的预测值对数的相反数
-
Focal Loss公式如下:
-
阿尔法是负责正负样本不均衡的,下一项括号是负责难易样本不均衡的,最后一项是交叉熵损失(要加上最前面的负号)
-
阿尔法的范围是0到1:越靠近1,正样本影响越大;越靠近0,负样本影响越大;等于0.5,这个参数等于没有
-
因为前面说的交叉熵损失的特征,当分类错误时,pt偏小,第二项更靠近1;当分类正确时,pt偏大,第二项更靠近0,这样就提高了难分类样本的影响
详细解决方案
大白话解说Focal Loss
热度:83 发布时间:2023-12-08 17:53:45.0
相关解决方案
- Chart FX for WPF中创造Win/Loss 图表
- 第一章.Classification -- 02.Loss Functions for Classification翻译
- 3 Computer Networking notes: overview - packet delay and loss (数据包的延迟和丢失)
- pytorch:自定义损失函数total variation loss
- 详解ReID的各部分组成及Trick——损失函数(Loss)
- tensorflow object_detection api ERROR:tensorflow:Model diverged with loss = NaN.
- 从loss的硬截断、软化到Focal Loss
- loss nan解决办法
- 专业英语(3、Loss Function)
- softmax loss 系列记录
- 论文阅读:Making Deep Neural Networks Robust to Label Noise: a Loss Correction Approach(2017CVPR,前后向校正)
- 机器学习速成课程笔记9:降低损失 (Reducing Loss)-Playground 练习
- 机器学习速成课程笔记8:降低损失 (Reducing Loss)-随机梯度下降法
- 机器学习速成课程笔记7:降低损失 (Reducing Loss)-优化学习速率
- 机器学习速成课程笔记6:降低损失 (Reducing Loss)-学习速率
- 机器学习速成课程笔记5:降低损失 (Reducing Loss)-梯度下降法
- 机器学习速成课程笔记4:降低损失 (Reducing Loss)
- Focal loss 参考理解
- 《Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression》DIOU论文
- 《Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression》GIOU
- 【DeepLearning】【PyTorch 】PyTorch 如何自定义损失函数(Loss Function)?
- 大白话解说Focal Loss
- 小白都能看懂的softmax loss
- 【目标检测】Focal Loss详解
- 【项目一、xxx病虫害检测项目】3、损失函数尝试:Focal loss
- 【YOLOV5-5.x 源码解读】loss.py
- 【trick 3】Focal Loss —— 解决one-stage目标检测中正负样本不均衡的问题
- 【YOLO v4 相关理论】Bounding Box regression loss: IoU Loss、GIoU Loss、DIoU Loss、CIoU Loss
- minimize(loss,var_list)
- Focal loss是啥