segmentationLoss
本文基于论文 A survey of loss functions for semantic segmentation
学习语义分割损失函数,该论文将 15 种语义分割函数分为 4 类进行归纳总结,并提出 Log-Cosh Dice Loss 损失
语义分割目前有哪些损失函数?
- 基于分布 (Distribution-based):基于模型输出概率分布和 gt 分布差异,计算损失,以交差熵为代表
- 基于区域 (Region-based):基于模型输出区域与 gt 区域计算损失,以 Dice 为代表
- 基于边界 (Boundary-based):考虑形状
- 基于复合 (Compounded):组合两种以上的损失函数,如 CE+Dice
什么是加权的二值交叉熵损失 (Weighted Binary Cross-Entropy, WCE)?
- 在交叉嫡 Loss 的基础上为每一个类别添加了一个权重参数为正样本加权。设置 , 减少假阴性;设置 , 减少假阳性。这样相比于原始的交叉嫡 Loss, 在样本数量不均衡的情况下可以获得更好的效果
什么是平衡交差熵损失 (Balanced Cross-Entropy, BCE)?
- 与加权交叉熵损失函数类似,但平衡交叉熵损失函数对负样本也进行加权
什么是距离图得出的损失惩罚项 (Distance map derived loss penalty term)?
- 将距离图定义为 ground truth 与预测图之间的距离(欧几里得距离、绝对距离等)
- 合并映射的方法有 2 种,一种是创建神经网络架构,在该算法中有一个用于分割的重建 head,或者将其引入损失函数。遵循相同的理论,可以从 GT mask 得出的距离图,并创建了一个基于惩罚的自定义损失函数。使用这种方法,可以很容易地将网络引导到难以分割的边界区域
什么是 Tversky Loss?
- Tversky 系数是 Dice 系数和 Jaccard 系数的一种推广。当设置 = =0.5, 此时 Tversky 系数就是 Dice 系数。而当设置 = =1 时,此时 Tversky 系数就是 Jaccard 系数。 和 分别控制假阴性和假阳性。通过调整 和 , 可以控制假阳性和假阴性之间的平衡
什么是 Focal Tversky Loss?
- “Focal loss” 相似,后者着重于通过降低易用 / 常见损失的权重来说明困难的例子。Focal Tversky Loss 还尝试借助 γ 系数来学习诸如在 ROI(感兴趣区域)较小的情况下的困难示例 $$FTL=\sum_c\left (1-TI_c\right)^{\gamma}$$
什么是 Sensitivity Specificity Loss?
- 与 Dice 系数相似,灵敏度和特异性是评价分割预测的常用指标。在这个损失函数中,我们可以用参数来解决类不平衡问题
什么是 Log-Cosh Dice Loss?
- 将 Cosh (x) 函数和 Log (x) 函数合并,可以得到 Log-Cosh Dice Loss
什么是 Shape-aware Loss?
- 顾名思义考虑了形状。通常所有损失函数都在像素级起作用,Shape-aware Loss 会计算平均点到曲线的欧几里得距离,即预测分割到 ground truth 的曲线周围点之间的欧式距离,并将其用作交叉熵损失函数的系数
什么是 Hausdorff Distance Loss?
- Hausdorff Distance Loss(HD)是分割方法用来跟踪模型性能的度量
什么是 Exponential Logarithmic Loss?
- 指数对数损失函数集中于使用骰子损失和交叉熵损失的组合公式来预测不那么精确的结构。对骰子损失和熵损失进行指数和对数转换,以合并更精细的分割边界和准确的数据分布的好处
什么是 Combo Loss?
- 组合损失定义为 Dice loss 和修正的交叉嫡的加权和。它试图利用 Dice 损失解决类不平衡问题的灵活性,同时使用交叉嫡进行曲线平滑
参考: