搜索资源列表
pvlw
- 最优化的一系列算法,包括牛顿法,最速下降法,共轭梯度法等,()
Polish-overload-access
- 最优化算法,有共轭梯度,牛顿法,黄金分割,最速下降法等()
method
- 解线性方程组的迭代法,例如:最速下降法求线性方程组Ax=b的解,共轭梯度法求线性方程组Ax=b的解(The iterative method for solving linear equations is obtained)
Untitled2
- BP神经网络基本原理概述:这种网络模型利用误差反向传播训练算法模型,能够很好地解决多层网络中隐含层神经元连接权值系数的学习问题,它的特点是信号前向传播、误差反向传播,简称BP(Back Propagation)神经网络。BP学习算法的基本原理是梯度最快下降法,即通过调整权值使网络总误差最小,在信号前向传播阶段,输入信号经输入层处理再经隐含层处理最后传向输出层处理;在误差反向传播阶段,将输出层输出的信号值与期望输出信号值比较得到误差,若误差较大则把误差信号传回隐含层直至输入层,在各层神经元中使用
最优化方法
- 使用各种不同的方法计算二元函数极值,如最速下降法,牛顿法,共轭梯度法,拟牛顿法,信赖域法等(Calculate binary function extremes using various methods, such as steepest descent, Newton's method, conjugate gradient method, quasi-Newton method, trust region method, etc.)
rosenbrock
- 最速下降法求梯度,可运行多维变量,很有参考价值(rosenbrock,minisize,matlab)