搜索资源列表
work123
- 最优化算法,有共轭梯度、牛顿法、黄金分割、最速下降法等-optimization algorithm, a conjugate gradient, Newton, 0.618, the steepest decline in France
MyOpt
- 最优化算法,包括最速下降法,共轭梯度法,拟牛顿法-optimization algorithms, including the steepest decline, the conjugate gradient method, the quasi-Newton method
linearsolvers
- matlab编程的三个线性方程组求解子程序:cggm.m,fdm.m,febs.m.其中cggm.m为共轭梯度法求解子程序,fdm.m为最速下降法求解自程序,febs.m为三对角追赶法求解子程序.-Matlab programming three linear equations subroutine : cggm.m, fdm.m. febs.m. which cggm.m to conjugate gradient method subroutine, fdm.m for the steep
最速下降梯度法matlab程序
- [网摘]最速下降梯度法matlab程序 最速下降梯度法matlab程序
NumericalLinearAlgebra
- 数值线性代数的Matlab应用程序包 共13个程序函数,每个程序函数有相应的例子函数一一对应,以*Example.m命名 程序名称 用途 Method 方法 GrmSch.m QR因子分解 classical Gram-Schmidt orthogonalization 格拉母-斯密特 MGrmSch.m QR因子分解 modified Gram-Schmidt iteration 修正格拉母-斯密特 householder.m QR因子分
matlab55
- 学会不同搜索法(最速下降法,共轭梯度法,牛顿法,拟牛顿法)的计算步骤; 比较不同搜索法(最速下降法,共轭梯度法,牛顿法,拟牛顿法)的优缺点。
Opt_Steepest
- 最速下降法是一种沿着N维目标函数的负梯度方向搜索最小值的方法。该程序是用最速下降法求无约束最优化解。
C02_openAHRS_20170926
- OpenAHRS中文注解版-9轴手机传感器数据融合的梯度下降法(OpenAHRS CHINESE STYLE)
DHXYWFE282
- 用于汽车巡航控制系统的模糊控制算法,以及如何利用梯度下降法和卡尔曼滤波来优化模糊控制器的算法,The files illu()
fitness
- 比如每个企业和个人都要考虑的一个问题“在一定成本下,如何使利润最大化”等。最优化方法是一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称。随着学习的深入,博主越来越发现最优化方法的重要性,学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解,比如我们现在学习的机器学习算法,大部分的机器学习算法的本质都是建立优化模型,通过最优化方法对目标函数(或损失函数)进行优化,从而训练出最好的模型。常见的最优化方法有梯度下降法、牛顿法和拟牛顿法
PSO
- 梯度下降法是最早最简单,也是最为常用的最优化方法。梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的。梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向,因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“。最速下降法越接近目标值,步长越小,前进越慢。(The gradient descent method is the earliest and most simple and most commo
fbxpopw
- 用于汽车巡航控制系统的模糊控制算法,以及如何利用梯度下降法和卡尔曼滤波来优化模糊控制器的算法,The files illu()
HW1-regression
- 线性回归梯度下降法程序,用python实现adagrad梯度下降法(Linear regression gradient descent method, using Python to achieve adagrad gradient descent method.)
przexption-primary
- 用于汽车巡航控制系统的模糊控制算法,以及如何利用梯度下降法和卡尔曼滤波来优化模糊控制器的算法,The files illu()
L-BFGS-B-C-master
- 基于梯度下降法的最优迭代算法,在深度学习和神经网络中应用非常广泛,也非常好用(The optimal iterative algorithm based on gradient descent method is widely used in depth learning and neural network, and it is also very useful.)
python_work
- 用tensorflow设计以三层的神经网络进行曲线拟合,采用梯度下降法。(Tensorflow is used to design three layers of neural network for curve fitting and gradient descent method.)
ADAM
- ADAM (Adaptive Moment Estimation)是另外一种自适应学习率算法,它结合动量梯度 下降法,在不同参数方向上采用不同学习率,保留前几次迭代的梯度,能够很好 的适应于稀疏数据。(ADAM (Adaptive Moment Estimation) is another adaptive learning rate algorithm, which combines momentum gradient. The descent method, which uses di
Deep Neural Network
- 深度神经网络训练过程中:首先是进行初始化,根据需求设置神经网络的基本结构;然后进行前向传递(feedforward),层与层之间进行传递,求得误差;然后进行反向传播(back propogation),根据误差最小化原则,使用随机梯度下降法,对各个参数进行求导,确定下降方向,对各个参数进行更新(In the training process of deep neural network, firstly, initialization is carried out, and the basic
Gradient
- 梯度下降法python实现,神经网络的底层思想(Python implementation of gradient descent method, the underlying idea of neural network)
工作空间中机械手的神经网络自适应控制
- 工作空间中机械手的神经网络自适应控制. 本设计为一个基于神经网络自适应控制的机械手运动模型的 MATLAB 仿真实验。以平面二关节机械手为控制对象,以一圆为目标轨迹。先得到机械手的运动 方程的形式,用 RBF 径向基神经网络对方程式中的系统的各个参数进行建模,利 用每个时刻的估计状态和理想状态的误差,通过梯度下降法对网络参数进行修正, 在若干次修正后,神经网络模型所得的状态跟踪到理想状态。