搜索资源列表
work
- 最优化问题的快速下降法,共轭梯度法,基于matlab算法。经过测试好用-Optimization problem of the rapid descent method, conjugate gradient method, based on matlab algorithm. Tested, easy to use
toro.tar
- 非常优秀的全局最优化算法实现,使用迭代随机梯度下降法处理高维度的最优化问题。国外很多优化工程也是在此基础上开发的。 作者:Giorgio Grisetti Cyrill Stachniss Slawomir Grzonka Wolfram Burgard-TORO is an optimization approach for constraint-network. It provides an efficient, gradient descent-based error minimiza
nonrigid_version7b
- 非刚性图像配准算例,包括最速梯度下降优化、二次样条、2D/3D配准、互信息最小化、3D仿射等多种配准算法。 非刚性配准是当前应用最多的配准方法,用于处理有较大位移的配准问题-Non-rigid image registration examples, including the steepest gradient descent optimization, quadratic spline, 2D/3D registration, mutual information minimizatio
bp
- 用bp算法拟合正弦曲线,并采集数据。其基本思想是梯度下降法。-Sine curve fitting algorithm with a bp, and collecting data. The basic idea is the gradient descent method.
conjgrad
- 在matlab中实现共轭梯度算法,它的基本思想是在共轭方向法和最速下降法之间建立某种联系,以求得到一个既有效又有较好收敛性的算法-based on matlab to realize arithmetic of conjugate grads
unconstrained_optimization
- VC实现的,多维函数搜索,无约束优化方法, (1)最速下降法 (2)阻尼牛顿法(3)共轭梯度法 (4)鲍维尔法(5)变尺度法(6)单纯形法 -VC implementation, multi-dimensional function of search, unconstrained optimization methods, (1), steepest descent method (2) damped Newton' s method (3) conjugate gradient
bpnnet_154
- L-M算法。除了动量法(基于梯度下降的训练算法)外,学习率自适应调整策略是BP算法改进的另一种途径,它利用Levenberg-Marquardt优化方法,从而使得学习时间更短。其缺点是,对于复杂的问题,该方法需要很大的存储空间。 -L-M algorithm. In addition to momentum (based on the gradient descent algorithm for training), learning rate adaptive strategy is to i
Unconstrained_optimization
- 压缩包里包含了无约束优化问题常用的几种求解方法的源程序:变量轮换法(variable_rotation.m)、最速下降法(steepest_descent.m)、修正牛顿法(modified_newton.m)、共轭梯度法(conjugate_gradient.m)。另外,coefficient_matrix.m为目标函数系数获得矩阵,minval.m为最小值计算函数,gradient.m为梯度计算函数-Compression bag contains unconstrained optimiz
bp.example
- 采用动量梯度下降算法训练BP网络,采用两种训练方法,即 L-M 优化算法(trainlm)和贝叶斯正则化算法(trainbr),用以训练 BP 网络-Gradient descent algorithm using momentum BP network training, using two training methods, namely, LM optimization algorithm (trainlm) and Bayesian regularization algorithm (t
BP_neural_network
- 采用动量梯度下降算法训练BP网络,程序后面有详细注释-Gradient descent algorithm using momentum BP network training, procedures followed have detailed notes
iterative
- rs 里查森迭代法求线性方程组 crs 里查森参数迭代法求线性方程组 grs 里查森迭代法求线性方程组 jacobi 雅可比迭代法求线性方程组 gauseidel 高斯-赛德尔迭代法求线性方程组 SOR 超松弛迭代法求线性方程组 SSOR 对称逐次超松弛迭代法求线性方程组 JOR 雅可比超松弛迭代法求线性方程组 twostep 两步迭代法求线性方程组 fastdown 最速下降法求线性方程组 conjgrad 共轭梯度法求线性方程组 preconjgr
subb
- 利用动量梯度下降算法训练BP网络,得到误差显示图,并最终进行预测-Gradient descent algorithm using momentum BP network training, the error display map, and, ultimately, to predict
RBF2
- 网络神经算法中,用径向基函数实现的最快梯度下降法-Neural network algorithm with radial basis function to achieve the fastest gradient descent algorithm
matlab
- 利用梯度算法--最快下降梯度算法进行图像的边缘检测-Gradient algorithm- the fastest decline in the gradient algorithm for image edge detection
dltd
- 采用动量梯度下降算法训练BP网络。在本源码中,训练样本定如下:p=[-1 -2 3 1 -1 1 5 -3] 目标矢量为t=[-1 -1 1 1]-Gradient descent algorithm using momentum BP network training. In this source, the training sample set as follows: p = [-1-2 3 1 -1 1 5-3] target vector for t = [-1-1 1 1]
Nonlinear_Programming
- 非线性规划中的最陡下降法、BFGS方法和共轭梯度法matlab源程序(3-拟牛顿BFGS方法).m-Non-linear programming in the steepest descent method, BFGS and conjugate gradient method matlab source code (3- Quasi-Newton BFGS method). M
feixianxing
- mulStablePoint 用不动点迭代法求非线性方程组的一个根 mulNewton 用牛顿法法求非线性方程组的一个根 mulDiscNewton 用离散牛顿法法求非线性方程组的一个根 mulMix 用牛顿-雅可比迭代法求非线性方程组的一个根 mulNewtonSOR 用牛顿-SOR迭代法求非线性方程组的一个根 mulDNewton 用牛顿下山法求非线性方程组的一个根 mulGXF1 用两点割线法的第一种形式求非线性方程组的一个根 mulGXF2 用两点割线法的第二
Equalizer_LSM
- 基于LM算法实现的均衡器。采用梯度估计近似实现最陡下降法。给出最后实验误差平方的均值曲线图。有完整的注释。-LM algorithm based on the equalizer. Similar to the realization of the estimated gradient steepest descent method. Finally, given the experimental error of the mean-square curve. Note complete.
SteepestDescentMethod
- 最速下降梯度法matlab程序 -Steepest Descent Method
fulltext
- 提出了一种图像配准随机梯度下降优化与自适应步长法预测的新的图像配准的方法-Presents a decline in image registration optimization and stochastic gradient adaptive step size to predict a new method of image registration