Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression(CVPR2019论文)
一、Motivation
传统回归损失的缺点:
1、 基于L1,L2距离的loss对于尺度不具有不变性。(这一点倒是挺重要的。YOLO3中对于w,h进行开方处理,就是为了缓解这个问题)
2、在相同的L1,L2距离下IoU和GIoU可能会有很大的区别(如下图)(个人以为这一点不太有说服力,因为相同的IoU和GIoU下,L1,L2距离也会有区别)
IOU,也称为JacCard,是比较两个任意形状之间相似性的最常用指标。IOU将要比较的对象的形状属性(例如,两个边界框的宽度、高度和位置)编码到Region属性中,然后计算聚焦于其区域(或体积)的标准化度量。此属性使IOU对所考虑问题的规模不变。由于这一吸引人的特性,用于评估分段、目标检测和跟踪的所有性能指标都依赖于这一指标。
基于此,IOU可以被反向传播,即它可以直接用作优化的目标函数。因此,最好使用IOU作为二维目标检测任务的目标函数。考虑到优化度量本身与代理损失函数之间的选择,最佳选择是度量本身。
IOU作为度量和损失存在的问题:
- 当IOU(A,B)=0时,不能得知A,B互相邻近或者相距较远。
- IoU不能反映两个物体如何重叠。比如当两个物体在多个不同方向上重叠,且交叉点水平相同,其IOU将完全相等。因此,IOU函数的值并不反映两个对象之间如何发生重叠。
如下图所示,若使用IoU评价指标,都是0.33,但对于人的直观感觉和后续的分析,效果就不同;使用GIoU可以很好的表达两个框之间的关系:
同时IOU也具有自身的优点:
1、 IoU可以作为距离,loss=1-IoU,但当两个物体不相交时无回传梯度。
2、IoU对尺度变化具有不变性,即不受两个物体尺度大小的影响。
3、IOU满足非负性、对称性、三角不等性
因此作者想克服IOU这些缺点同时充分利用其优点,因此提出GIoU。
二、GIOU的计算方式
- 假设A为预测框,B为真实框,S是所有框的集合
- 不管A与B是否相交,C是包含A与B的最小框,C也属于S集合
- 首先计算IoU,A与B的交并比
- 再计算C框中没有A与B的面积,比上C框面积;IoU减去前面算出的比;得到GIoU
GIOU的几点性质:
1、类似于IoU,GIoU作为距离度量,Loss = 1 - GIoU,保留度量的所有属性,如非负性,同一性,对称性和三角不等式。
2、与IoU类似,GIoU对尺度的不变性。
3、GIoU是IoU的下界,即∀A,B⊆S ,GIOU(A,B)≤IOU(A,B),当A和B具有更强的形状相似性和接近度时,该下界变得更紧密,即GIOU(A,B)= IoU(A,B)。
4、GIoU具有对称范围如:−1 ≤ GIoU(A,B) ≤ 1.
5.与IoU相比,GIoU不仅关注重叠区域。当A和B相对于彼此没有很好地对准时,封闭形状C中的两个对称形状A和B之间的空白空间增加, 因此,GIoU的值可以更好地反映两个对称物体之间如何发生重叠。
三、GIOU的主要作用
IoU或GIoU可以直接用作损失,即LIoU或LGIoU,用于优化基于深度神经网络的物体检测器。在这种情况下,我们直接将度量标准优化为损失,这是度量标准的最佳选择。然而,在所有非重叠的情况下,IoU具有零梯度,这既影响训练质量又影响收敛速度。相比之下,GIoU在所有可能的情况下都有一个梯度,包括不重叠的情况。
实验表明,GIoU与IoU具有很强的相关性,尤其是在高IoU值时。作者还通过从两个2D矩形的参数中获取超过10K的随机样本,在下图中定性地证明了这种相关性。
在图中可以观察到在低重叠的情况下,例如, IoU≤0.2且GIoU≤0.2,与IoU相比,GIoU有机会发生更大的变化。为此,与IoU相比,在这些情况下,GIoU可能在任何可能的状态下具有更陡峭的梯度。因此,优化GIoU作为损失,LGIoU与LIoU相比可能是更好的选择,无论最终使用哪种基于IoU的性能测量。作者的实验结果证实了这一说法.
Loss-GIOU的计算方式如下:
閱讀更多 計算機視覺糖小白 的文章