搜索资源列表
SteepestDescentMethod
- 最速下降梯度法MATLAB程序.转载自科研中国.-steepest descent gradient method MATLAB program. China reprinted from the research.
Steepest.Descent.Method.matlab
- matlab经典算法的程序 最速下降梯度法matlab程序
2
- 实现最优化搜索中,DFB法,秩1法,bfgs法以及共轭梯度法进行最优化数据搜索。其中共轭梯度法下降速率比较慢,要合理设置终止门限-Optimize the search, DFB method, rank 1 method, bfgs method and conjugate gradient method to optimize the data search. Conjugate gradient method in which the rate of decrease is slower,
matlab
- 最速下降梯度法matlab程序和用拟牛顿法求极小值点-apply a gradient–descent based error minimization approach to minimize the difference between the real deformation and the simulated one given the elasticity parameters
gratDesent
- 用速降法解决凸函数优化的matlab程序,利用最大梯度的方向上的下降最快的原理求解凸函数的最优值。-Descent gradient menthod in matlab
CG
- 共轭梯度法 求解线性方程组的子函数 可以编程直接调用 可验证其误差下降速度和收敛性-Conjugate gradient method is used to solve the linear equations son function can be directly call can be validated the programming error drop speed and convergence
optical-folw
- 基于光流的各种梯度计算方法 用拟牛顿法求极小值点和最速下降梯度法matlab程序-Based on optical flow of all kinds of gradient calculation
(FR共轭梯度法程序)
- 在共轭梯度法的实际使用中, 通常在迭代 ?? 步或 ?? + 1 步之后, 重新取负梯 度方向作为搜索方向, 我们称之为再开始共轭梯度法. 这是因为对于一般非二次 函数而言, ?? 步迭代后共轭梯度法产生的搜索方向往往不再具有共轭性. 而对于 大规模问题, 常常每 ??(?? < ?? 或 ?? ? ??) 步就进行再开始. 此外, 当搜索方向不 是下降方向时, 也插入负梯度方向作为搜索方向.(In the practical use of conjugate gradient m
Optimal problem solver
- 优化问题求解方法包括牛顿法、共轭梯度法和最速下降法(The optimization problems are solved by Newton method, conjugate gradient method and steepest descent method)
linear optimization
- 用BFGS 拟牛顿法 最速下降法 牛顿法 共轭梯度法 解决线性优化问题(Solving linear optimization problems with conjugate gradient method and Steepest descent method.)
智能优化算法资料
- 优化算法有很多,经典算法包括:有线性规划,动态规划等;改进型局部搜索算法包括爬山法,最速下降法等,模拟退火、遗传算法以及禁忌搜索称作指导性搜索法。而神经网络,混沌搜索则属于系统动态演化方法。 梯度为基础的传统优化算法具有较高的计算效率、较强的可靠性、比较成熟等优点,是一类最重要的、应用最广泛的优化算法。但是,传统的最优化方法在应用于复杂、困难的优化问题时有较大的局限性。(There are many optimization algorithms, the classical algori
KPWOQN
- 最优化的一系列算法,包括牛顿法,最速下降法,共轭梯度法等,()
ruqning
- 最优化算法,有共轭梯度,牛顿法,黄金分割,最速下降法等()
NKFSVH7
- 一个介绍最优化方法课件,很详细,从最简单的一维搜索到共轭梯度,最速下降法等等,都有说明()
pvlw
- 最优化的一系列算法,包括牛顿法,最速下降法,共轭梯度法等,()
Polish-overload-access
- 最优化算法,有共轭梯度,牛顿法,黄金分割,最速下降法等()
method
- 解线性方程组的迭代法,例如:最速下降法求线性方程组Ax=b的解,共轭梯度法求线性方程组Ax=b的解(The iterative method for solving linear equations is obtained)
Untitled2
- BP神经网络基本原理概述:这种网络模型利用误差反向传播训练算法模型,能够很好地解决多层网络中隐含层神经元连接权值系数的学习问题,它的特点是信号前向传播、误差反向传播,简称BP(Back Propagation)神经网络。BP学习算法的基本原理是梯度最快下降法,即通过调整权值使网络总误差最小,在信号前向传播阶段,输入信号经输入层处理再经隐含层处理最后传向输出层处理;在误差反向传播阶段,将输出层输出的信号值与期望输出信号值比较得到误差,若误差较大则把误差信号传回隐含层直至输入层,在各层神经元中使用
最优化方法
- 使用各种不同的方法计算二元函数极值,如最速下降法,牛顿法,共轭梯度法,拟牛顿法,信赖域法等(Calculate binary function extremes using various methods, such as steepest descent, Newton's method, conjugate gradient method, quasi-Newton method, trust region method, etc.)
rosenbrock
- 最速下降法求梯度,可运行多维变量,很有参考价值(rosenbrock,minisize,matlab)