当前位置: 首页 >> 科学研究 >> 学术交流 >> 学术报告 >> 正文

全球赌船十大网站青年学术论坛第237期——A modified limited memory steepest descent method motivated by an inexact super-linear convergence rate analysis

发布者: [发表时间]:2021-06-02 [来源]: [浏览次数]:

报告题目:A modified limited memory steepest descent method motivated by an inexact super-linear convergence rate analysis

主讲人:顾然 博士

主持人:孙聪

报告时间:202161116:00-17:00

报告地点:主楼1214

报告摘要:

How to choose the step size of gradient descent method has been a popular subject of research. In this paper we propose a modified limited memory steepest descent method (MLMSD). In each iteration we propose a selection rule to pick a unique step size from a candidate set, which is calculated by Fletcher’s limited memory steepest descent method (LMSD), instead of going through all the step sizes in a sweep, as in Fletcher’s original LMSD algorithm. MLMSD is motivated by an inexact super-linear convergence rate analysis. The R-linear convergence of MLMSD is proved for a strictly convex quadratic minimization problem. Numerical tests are presented to show that our algorithm is efficient and robust.

主讲人介绍:

顾然,南开大学统计与数据科学学院,助理教授。2012年本科毕业于南开大学数学科学学院。2017年博士毕业于中国科学院数学与系统科学研究院,师从袁亚湘院士。2017年至2020年,在美国哥伦比亚大学做博士后,研究最优化方法及其在材料科学中的应用。2020年底,入职南开大学统计与数据科学学院。主要研究内容包括梯度下降法、二次约束二次规划、半正定规划、距离几何问题、非负矩阵分解、原子对分布函数分析、供应链管理问题建模与求解。