搜索资源列表
work123
- 最优化算法,有共轭梯度、牛顿法、黄金分割、最速下降法等-optimization algorithm, a conjugate gradient, Newton, 0.618, the steepest decline in France
METHED_OF_STEEPEST_DESENT
- 通过最速下降算法研究基于梯度的自适应方法,最速下降是递归的,滤波器计算是一步步迭代进行-through the steepest descent gradient algorithm based on the adaptive method, the steepest decline is recursive, Filter is an iterative step by step
MyOpt
- 最优化算法,包括最速下降法,共轭梯度法,拟牛顿法-optimization algorithms, including the steepest decline, the conjugate gradient method, the quasi-Newton method
SteepestDescentMethod
- 最速下降梯度法MATLAB程序.转载自科研中国.-steepest descent gradient method MATLAB program. China reprinted from the research.
linearsolvers
- matlab编程的三个线性方程组求解子程序:cggm.m,fdm.m,febs.m.其中cggm.m为共轭梯度法求解子程序,fdm.m为最速下降法求解自程序,febs.m为三对角追赶法求解子程序.-Matlab programming three linear equations subroutine : cggm.m, fdm.m. febs.m. which cggm.m to conjugate gradient method subroutine, fdm.m for the steep
NumericalLinearAlgebra
- 数值线性代数的Matlab应用程序包 共13个程序函数,每个程序函数有相应的例子函数一一对应,以*Example.m命名 程序名称 用途 Method 方法 GrmSch.m QR因子分解 classical Gram-Schmidt orthogonalization 格拉母-斯密特 MGrmSch.m QR因子分解 modified Gram-Schmidt iteration 修正格拉母-斯密特 householder.m QR因子分
matlab55
- 学会不同搜索法(最速下降法,共轭梯度法,牛顿法,拟牛顿法)的计算步骤; 比较不同搜索法(最速下降法,共轭梯度法,牛顿法,拟牛顿法)的优缺点。
Opt_Steepest
- 最速下降法是一种沿着N维目标函数的负梯度方向搜索最小值的方法。该程序是用最速下降法求无约束最优化解。
Steepest.Descent.Method.matlab
- matlab经典算法的程序 最速下降梯度法matlab程序
HW1-regression
- 线性回归梯度下降法程序,用python实现adagrad梯度下降法(Linear regression gradient descent method, using Python to achieve adagrad gradient descent method.)
przexption-primary
- 用于汽车巡航控制系统的模糊控制算法,以及如何利用梯度下降法和卡尔曼滤波来优化模糊控制器的算法,The files illu()
Matlab optimization programming example
- 分别用最速下降法、FR共轭梯度法、DFP法和BFGS法求解一个典型数学优化问题。(A typical mathematical optimization problem is solved by steepest descent method, FR conjugate gradient method, DFP method and BFGS method respectively.)
L-BFGS-B-C-master
- 基于梯度下降法的最优迭代算法,在深度学习和神经网络中应用非常广泛,也非常好用(The optimal iterative algorithm based on gradient descent method is widely used in depth learning and neural network, and it is also very useful.)
python_work
- 用tensorflow设计以三层的神经网络进行曲线拟合,采用梯度下降法。(Tensorflow is used to design three layers of neural network for curve fitting and gradient descent method.)
ADAM
- ADAM (Adaptive Moment Estimation)是另外一种自适应学习率算法,它结合动量梯度 下降法,在不同参数方向上采用不同学习率,保留前几次迭代的梯度,能够很好 的适应于稀疏数据。(ADAM (Adaptive Moment Estimation) is another adaptive learning rate algorithm, which combines momentum gradient. The descent method, which uses di
Deep Neural Network
- 深度神经网络训练过程中:首先是进行初始化,根据需求设置神经网络的基本结构;然后进行前向传递(feedforward),层与层之间进行传递,求得误差;然后进行反向传播(back propogation),根据误差最小化原则,使用随机梯度下降法,对各个参数进行求导,确定下降方向,对各个参数进行更新(In the training process of deep neural network, firstly, initialization is carried out, and the basic
KSVD_OMP and ProximalGradientMethod
- 这是两个关于压缩感知重构的代码,KSVD(字典学习)以及OMP(正交匹配追踪),还有ProximalGradientMethod(近端梯度下降算法),希望能够对学习压缩感知的你们有所帮助。
GA-BP汇总大全(含详细教程代码和论文)
- 文中包含利用遗传算法进行优化的梯度下降神经网络的代码和教程,内容非常丰富,包含可以直接运行的代码和相关重要参考文献论文,可帮助理解,属于很综合的优秀资料,个人现分享出来供大家学习,谢谢!(This article contains the code and tutorial of gradient descent neural network optimized by genetic algorithm. The content is very rich, including the code
Gradient
- 梯度下降法python实现,神经网络的底层思想(Python implementation of gradient descent method, the underlying idea of neural network)
工作空间中机械手的神经网络自适应控制
- 工作空间中机械手的神经网络自适应控制. 本设计为一个基于神经网络自适应控制的机械手运动模型的 MATLAB 仿真实验。以平面二关节机械手为控制对象,以一圆为目标轨迹。先得到机械手的运动 方程的形式,用 RBF 径向基神经网络对方程式中的系统的各个参数进行建模,利 用每个时刻的估计状态和理想状态的误差,通过梯度下降法对网络参数进行修正, 在若干次修正后,神经网络模型所得的状态跟踪到理想状态。