搜索资源列表
dnorg
- 通过最速下降算法研究基于梯度的自适应方法,最速下降是递归的,-Through the study of steepest descent algorithm based on gradient adaptive method, the steepest decline is recursive,
BP网络
- BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法(梯度法),通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input layer)、隐层(hide layer)和输出层(outpu
MATLAB CODE
- 实现数值计算的简单算法code 包括:非线性最小二乘问题、共轭梯度法、拟牛顿法、最速下降法与牛顿法、线搜索技术、乘子法程序、二次规划(A simple algorithm for numerical calculation, including nonlinear least squares problem, conjugate gradient method, quasi-Newton method, steepest descent method and Newton method, lin
(FR共轭梯度法程序)
- 在共轭梯度法的实际使用中, 通常在迭代 ?? 步或 ?? + 1 步之后, 重新取负梯 度方向作为搜索方向, 我们称之为再开始共轭梯度法. 这是因为对于一般非二次 函数而言, ?? 步迭代后共轭梯度法产生的搜索方向往往不再具有共轭性. 而对于 大规模问题, 常常每 ??(?? < ?? 或 ?? ? ??) 步就进行再开始. 此外, 当搜索方向不 是下降方向时, 也插入负梯度方向作为搜索方向.(In the practical use of conjugate gradient m
Optimal problem solver
- 优化问题求解方法包括牛顿法、共轭梯度法和最速下降法(The optimization problems are solved by Newton method, conjugate gradient method and steepest descent method)
mtudy-mjthxd-recursive
- 通过最速下降算法研究基于梯度的自适应方法,最速下降是递归的,(Through the study of steepest descent algorithm based on gradient adaptive method, the steepest decline is recursive,)
zuisuxiajiang_2+gongetidu_4
- 使用最速下降法和共轭梯度法实现优化功能,基于MATLAB平台使用m语言编写(Based on the MATLAB platform, steepest descent method and conjugate gradient method are used to achieve the optimization function with M language.)
优化算法
- 解决了最小无约束优化问题 步长由ARmijo非精确一维搜索生成,迭代方向分别由最速下降法,阻尼牛顿法,共轭梯度法,拟牛顿法(BFGS)产生(This code solves the minimum unconstrained optimization problem, and the step size is generated by ARmijo inexact one-dimensional search. The iterative directions are generated b
linear optimization
- 用BFGS 拟牛顿法 最速下降法 牛顿法 共轭梯度法 解决线性优化问题(Solving linear optimization problems with conjugate gradient method and Steepest descent method.)
智能优化算法资料
- 优化算法有很多,经典算法包括:有线性规划,动态规划等;改进型局部搜索算法包括爬山法,最速下降法等,模拟退火、遗传算法以及禁忌搜索称作指导性搜索法。而神经网络,混沌搜索则属于系统动态演化方法。 梯度为基础的传统优化算法具有较高的计算效率、较强的可靠性、比较成熟等优点,是一类最重要的、应用最广泛的优化算法。但是,传统的最优化方法在应用于复杂、困难的优化问题时有较大的局限性。(There are many optimization algorithms, the classical algori
DHS
- 改进的HS共轭梯度法,能够更快的求解无约束优化问题(A modified Hestenes-Stiefel conjugate gradient method with sufficient descent condition and conjugacy condition)
最优化方法
- 使用各种不同的方法计算二元函数极值,如最速下降法,牛顿法,共轭梯度法,拟牛顿法,信赖域法等(Calculate binary function extremes using various methods, such as steepest descent, Newton's method, conjugate gradient method, quasi-Newton method, trust region method, etc.)
Matlab optimization programming example
- 分别用最速下降法、FR共轭梯度法、DFP法和BFGS法求解一个典型数学优化问题。(A typical mathematical optimization problem is solved by steepest descent method, FR conjugate gradient method, DFP method and BFGS method respectively.)
ADAM
- ADAM (Adaptive Moment Estimation)是另外一种自适应学习率算法,它结合动量梯度 下降法,在不同参数方向上采用不同学习率,保留前几次迭代的梯度,能够很好 的适应于稀疏数据。(ADAM (Adaptive Moment Estimation) is another adaptive learning rate algorithm, which combines momentum gradient. The descent method, which uses di
Deep Neural Network
- 深度神经网络训练过程中:首先是进行初始化,根据需求设置神经网络的基本结构;然后进行前向传递(feedforward),层与层之间进行传递,求得误差;然后进行反向传播(back propogation),根据误差最小化原则,使用随机梯度下降法,对各个参数进行求导,确定下降方向,对各个参数进行更新(In the training process of deep neural network, firstly, initialization is carried out, and the basic