摘要
本文利用数学分析的方法 ,提出了一种前向神经网络快速分层线性优化算法 ,其特点是 :用新方法构造了各层的目标函数 ;无须计算Hessian矩阵 ,加快了算法的收敛速度 .仿真实验表明 ,与传统算法如误差反传法或BP法和含势态因子 (Momentumfactor)的BP法以及现有的分层优化算法相比 ,新算法能加快收敛速度 ,并降低学习误差 .
This paper presents a fast layer-wise linearized algorithm for feedforward neural networks by mathematic methods with the following features:constructing target function for each layer by new methods;not calculating the Hessian matrix,thus greatly reducing the learning time.Simulation shows that the new algorithm can accelerate the convergence rate and reduce the error compared with the existing algorithms such as backpropagation (BP) algorithm,BP algorithm with momentum factor and existing layer-wise algorithms.
出处
《电子学报》
EI
CAS
CSCD
北大核心
2001年第11期1495-1498,共4页
Acta Electronica Sinica
基金
国家自然科学基金 (No .69772 0 2 7)
教育部骨干教师培养计划及广东省"千百十"人才工程基金资助