博客
关于我
CVPR2023|清华大学提出GAM:神经网络“一阶平滑优化器”,显著提升模型“泛化能力”...
阅读量:798 次
发布时间:2023-04-05

本文共 966 字,大约阅读时间需要 3 分钟。

神经网络收敛位置平滑性与模型泛化能力研究

近年来,神经网络的收敛位置平滑性被证明与其泛化能力密切相关。清华大学崔鹏教授在CVPR2023 Highlight论文中提出了一阶平滑性概念,并提出了Gradient norm Aware Minimization (GAM)优化器,显著提升了模型的泛化能力。

收敛位置平滑性与模型泛化

大型神经网络在训练过程中对训练数据的拟合能力显著增强,但这并不意味着其在测试数据上的表现可靠。研究表明,过度拟合训练数据可能导致测试误差增加。残差连接的网络在loss landscape上表现出更高的平滑性,相比之下,传统网络的loss landscape则显著陡峭,具有许多尖锐的凸起和凹陷。

实验结果显示,平滑极值点(flat minima)的泛化能力强于尖锐极值点(sharp minima)。Nitish Shirish等人的研究进一步证明,平滑极值点的测试误差显著低于尖锐极值点。

一阶平滑性与优化器设计

现有零阶平滑性(SAM)在较大或较小的邻域内存在识别极值平滑性的难题。基于这一发现,我们提出了一阶平滑性(first-order flatness, FOF)的概念,通过约束参数邻域内最大梯度范数来更好地捕捉loss变化趋势。

GAM优化器在训练过程中同时优化预测误差和邻域内最大梯度范数。通过一次梯度上升近似,GAM能够有效约束一阶平滑性,并通过损失函数的二阶近似优化Hessian的最大特征值。

实验验证与效果分析

我们在CIFAR、ImageNet、Stanford Cars、Oxford_IIIT_Pets等数据集上验证了GAM的优化效果。与SGD和AdamW相比,GAM显著提升了模型的泛化能力。例如,在CIFAR-100上,GAM提升了PyramidNet110的准确率2.17%;在ImageNet上,GAM提升了Vit-B/32的top-1准确率2.43%。

进一步分析表明,GAM能够显著约束Hessian的最大特征值和迹,帮助模型收敛到更加平滑的极值点。

结论

本研究提出了一阶平滑性的概念,并基于此设计了GAM优化器。GAM通过约束参数邻域内最大梯度范数和Hessian特征值,显著提升了模型的泛化能力。未来研究将进一步探索GAM在其他深度学习任务中的应用潜力。

转载地址:http://bxrfk.baihongyu.com/

你可能感兴趣的文章
mysql CPU使用率过高的一次处理经历
查看>>
Multisim中555定时器使用技巧
查看>>
MySQL CRUD 数据表基础操作实战
查看>>
multisim变压器反馈式_穿过隔离栅供电:认识隔离式直流/ 直流偏置电源
查看>>
mysql csv import meets charset
查看>>
multivariate_normal TypeError: ufunc ‘add‘ output (typecode ‘O‘) could not be coerced to provided……
查看>>
MySQL DBA 数据库优化策略
查看>>
multi_index_container
查看>>
mutiplemap 总结
查看>>
MySQL Error Handling in Stored Procedures---转载
查看>>
MVC 区域功能
查看>>
MySQL FEDERATED 提示
查看>>
mysql generic安装_MySQL 5.6 Generic Binary安装与配置_MySQL
查看>>
Mysql group by
查看>>
MySQL I 有福啦,窗口函数大大提高了取数的效率!
查看>>
mysql id自动增长 初始值 Mysql重置auto_increment初始值
查看>>
MySQL in 太多过慢的 3 种解决方案
查看>>
Mysql Innodb 锁机制
查看>>
MySQL InnoDB中意向锁的作用及原理探
查看>>
MySQL InnoDB事务隔离级别与锁机制深入解析
查看>>