赞
踩
使用交叉熵损失和 Dice 损失之和作为损失函数。使用 Adam 作为优化器,初始学习率为 3×10−4 ,l2 权重衰减为 3×10−5。每当训练损失的指数移动平均值在最近 30 个时期内没有改善时,学习率下降 0.2 倍。当学习率低于 10−6 或超过 1000 个训练轮数时,停止训练。我们使用 batchgenerators 框架在训练期间进行在线数据增强。具体地,我们使用弹性变形、随机缩放和随机旋转以及 gamma 增强。
在现在的论文中,主流采用其中包括许多“噪音”。所以,近年来学者们提出了大量的分割方法。一个突出的例子是:U-Net 这样的带跳过连接的解码 - 编码结构的各种变体,包括引入残差连接、密集连接、注意力机制、额外辅助的损失层、特征重新校准和其他(如自动聚焦层)。
下面的参考极市社区
在图像分割任务特别是医学图像分割中,U-Net[1]无疑是最成功的方法之一,该方法在2015年MICCAI会议上提出,目前已达到四千多次引用。其采用的编码器(下采样)-解码器(上采样)结构和跳跃连接是一种非常经典的设计方法。目前已有许多新的卷积神经网络设计方式,但很多仍延续了U-Net的核心思想,加入了新的模块或者融入其他设计理念。本文对U-Net及其几种改进版做一个介绍。
U-Net最初是一个用于二维图像分割的卷积神经网络,分别赢得了ISBI 2015细胞追踪挑战赛和龋齿检测挑战赛的冠军[2]。U-Net的一个Karas实现代码:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。