Home

【学习笔记】如何理解BatchNormalization

背景 当神经网络越来越深时,靠近loss的层(高层,提取高级语义信息)参数梯度较大,更新较快,但是靠近data的层(底层,提取低级语义信息,例如边缘)参数梯度很小,更新很慢;然而低层的变化会使得高层参数重新训练,导致模型收敛速度很慢,因此考虑学习底层特征时,避免高层参数不断变化。 另一个解释是通过BN让数据更加规整,将其调整到激活函数敏感的区域,可以帮助模型更好地学习内部范式。 还有更常见的解释是将feature scaling,让特征的每个维度分布比较均衡,这样会帮助模型找到一个好的梯度方向。 核心idea 设置固定的分布,使得数据经过特定层后,保持这个分布不变,从而影响模型参数的学习。 固定小批量的均值和方差: Step1 : 计算Batch均值和方差 \[\m...

Read more

【论文阅读】OCTA-500: 一个光学相干断层扫描血管成像研究的眼底数据集

简介 OCTA-500是在作者之前的IPN工作基础上展开的,作者为南京理工大学的陈强教授团队,论文发表在MIA期刊(医学图像领域顶刊,中科院一区),论文开源的OCTA-500是目前数据规模最大的OCTA数据集。 其中关于数据集制作的描述可以为之后构建相关数据集提供参考,特别是关于利用血管自身的特性从大血管中划分出动脉和静脉、划分毛细血管以及得到中央凹无血管区FAZ的3D标签(关于FAZ体积涉及到作者的另一篇工作,除此之外论文中的多任务学习也为之后设计模型提供了很好的参考。 摘要Abstract 光学相干断层扫描成像OCTA作为新的成像方式,可以观察到视网膜血管和微血管系统,已经被广泛用于眼科和神经科学研究,但目前开源的OCTA数据非常少。这篇论文中,作者介绍了目前最大并且最全面...

Read more

【文档说明】博客文档常见问题

记录个人博客文档的相关说明,为之后写博客、统一风格提供参考,参考文档说明。 头信息 markdown文档的头部需要包含YAML头信息才能被正确解析,头信息必须在文件的开始部分,并且需要按照YAML格式写在两行三虚线之间。 --- layout: post title: Blog author: Su --- 常用的配置变量见下: 变量名称 描述 layout 指定模板文件,不需要扩展名,必须在 _layout目录下 permalink 博客默认的URL地址为 /year/month/day/title.html,设置此变量可以指定UR...

Read more