半导体光电, 2019, 40 (4): 555, 网络出版: 2019-09-20   

一种改进的Focal Loss在语义分割上的应用

An Improved Focal Loss Function for Semantic Segmentation
作者单位
1 中国科学院光电技术研究所, 成都 610209
2 中国科学院大学, 北京 100049
摘要
传统基于深度学习的语义分割方法使用的损失函数为交叉熵, 而交叉熵并不能解决训练数据中的样本非均衡性问题。语义分割任务属于像素级分类, 样本的非均衡性问题在其中体现得十分突出。文章提出了一种改进的Focal Loss作为损失函数来自动解决训练样本的非均衡性。该损失函数等同于在标准交叉熵上加上一个权重, 该权重能够自动增加困难样本的交叉熵损失值, 同时保持简单样本的交叉熵损失值。将Focal Loss作为DeepLabv3+的损失函数, 并将DeepLabv3+的Backbone替换为ResNet-18, 再使用Cityscapes数据集作为训练样本, 分别使用交叉熵和Focal Loss作为损失函数来对模型进行训练。实验结果表明, 改进的Focal Loss损失函数相比于交叉熵获得的语义分割精度更高, 且能够有效缓解训练样本的非均衡性问题。
Abstract
The loss function usually used in deep-learning-based semantic segmentation is cross entropy, and it cannot tackle the imbalance problem of the training data. Semantic segmentation is a pixel-level classification task, in which the imbalance presents much more serious. In this paper, an improved Focal Loss for semantic segmentation is proposed to alleviate the imbalance problem of training data automatically. This loss function can be seen as weighted cross entropy, but the weight can increase the cross entropy loss of hard example and keep the cross entropy loss of easy example. By taking Focal Loss as the loss function of DeepLabv3+, and changing the backbone of DeepLabv3+ to ResNet-18, the model was trained on Cityscapes dataset with cross entropy and focal loss separately. The experimental results prove that the proposed loss function can get better segmentation accuracy, and can significantly alleviate the imbalance problem of training data.

杨威, 张建林, 徐智勇, 赵春梅. 一种改进的Focal Loss在语义分割上的应用[J]. 半导体光电, 2019, 40(4): 555. YANG Wei, ZHANG Jianlin, XU Zhiyong, ZHAO Chunmei. An Improved Focal Loss Function for Semantic Segmentation[J]. Semiconductor Optoelectronics, 2019, 40(4): 555.

本文已被 1 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!