博客
关于我
CVPR2023|清华大学提出GAM:神经网络“一阶平滑优化器”,显著提升模型“泛化能力”...
阅读量:798 次
发布时间:2023-04-05

本文共 966 字,大约阅读时间需要 3 分钟。

神经网络收敛位置平滑性与模型泛化能力研究

近年来,神经网络的收敛位置平滑性被证明与其泛化能力密切相关。清华大学崔鹏教授在CVPR2023 Highlight论文中提出了一阶平滑性概念,并提出了Gradient norm Aware Minimization (GAM)优化器,显著提升了模型的泛化能力。

收敛位置平滑性与模型泛化

大型神经网络在训练过程中对训练数据的拟合能力显著增强,但这并不意味着其在测试数据上的表现可靠。研究表明,过度拟合训练数据可能导致测试误差增加。残差连接的网络在loss landscape上表现出更高的平滑性,相比之下,传统网络的loss landscape则显著陡峭,具有许多尖锐的凸起和凹陷。

实验结果显示,平滑极值点(flat minima)的泛化能力强于尖锐极值点(sharp minima)。Nitish Shirish等人的研究进一步证明,平滑极值点的测试误差显著低于尖锐极值点。

一阶平滑性与优化器设计

现有零阶平滑性(SAM)在较大或较小的邻域内存在识别极值平滑性的难题。基于这一发现,我们提出了一阶平滑性(first-order flatness, FOF)的概念,通过约束参数邻域内最大梯度范数来更好地捕捉loss变化趋势。

GAM优化器在训练过程中同时优化预测误差和邻域内最大梯度范数。通过一次梯度上升近似,GAM能够有效约束一阶平滑性,并通过损失函数的二阶近似优化Hessian的最大特征值。

实验验证与效果分析

我们在CIFAR、ImageNet、Stanford Cars、Oxford_IIIT_Pets等数据集上验证了GAM的优化效果。与SGD和AdamW相比,GAM显著提升了模型的泛化能力。例如,在CIFAR-100上,GAM提升了PyramidNet110的准确率2.17%;在ImageNet上,GAM提升了Vit-B/32的top-1准确率2.43%。

进一步分析表明,GAM能够显著约束Hessian的最大特征值和迹,帮助模型收敛到更加平滑的极值点。

结论

本研究提出了一阶平滑性的概念,并基于此设计了GAM优化器。GAM通过约束参数邻域内最大梯度范数和Hessian特征值,显著提升了模型的泛化能力。未来研究将进一步探索GAM在其他深度学习任务中的应用潜力。

转载地址:http://bxrfk.baihongyu.com/

你可能感兴趣的文章
Moment.js常见用法总结
查看>>
MongoDB出现Error parsing command line: unrecognised option ‘--fork‘ 的解决方法
查看>>
MongoDB学习笔记(8)--索引及优化索引
查看>>
ms sql server 2008 sp2更新异常
查看>>
MS UC 2013-0-Prepare Tool
查看>>
msbuild发布web应用程序
查看>>
MSCRM调用外部JS文件
查看>>
MSEdgeDriver (Chromium) 不适用于版本 >= 79.0.313 (Canary)
查看>>
msf
查看>>
MSSQL数据库查询优化(一)
查看>>
MSSQL日期格式转换函数(使用CONVERT)
查看>>
MSTP多生成树协议(第二课)
查看>>
MSTP是什么?有哪些专有名词?
查看>>
Mstsc 远程桌面链接 And 网络映射
查看>>
Myeclipse常用快捷键
查看>>
MyEclipse用(JDBC)连接SQL出现的问题~
查看>>
myeclipse的新建severlet不见解决方法
查看>>
MyEclipse设置当前行背景颜色、选中单词前景色、背景色
查看>>
MyEclipse配置SVN
查看>>
MTCNN 人脸检测
查看>>