搜索资源列表
Practice2
- 根据学生两次考试成绩的数据来预测学生是否能被大学录取,用逻辑斯蒂回归算法实现,分别执行梯度下降算法、随机梯度下降算法、牛顿法-According student test scores twice to predict whether the student can be admitted to universities, implemented in logistic regression algorithm.
cheek
- 用C++实现了梯度下降求多元函数极值的算法,有可能会陷入局部最优解-By c++ implementation of a gradient descent algorithm of multivariate function extreme value, is likely to fall into local optimal solution
e2029bd3daf3
- BP神经网络的java源代码,采用动量梯度下降法-BP neural network java source code, the use of momentum gradient descent method
tiduxiajiangfa
- 第二类随机性辨识问题的梯度下降法修正算法和随机牛顿法系统辨识程序-Gradient descent method correction algorithm and stochastic Newton method system identification program for the second class stochastic identification problem
PGD
- 最优化方法之近端梯度下降法,适用于L1正则项的最优化。-Proximal gradient descent
bpNeural-network-instance
- 例1 采用动量梯度下降算法训练 BP 网络。 例2 采用贝叶斯正则化算法提高 BP 网络的推广能力。在本例中,我们采用两种训练方法,即 L-M 优化算法(trainlm)和贝叶斯正则化算法(trainbr),用以训练 BP 网络,使其能够拟合某一附加有白噪声的正弦样本数据。-Example 1 uses the momentum gradient descent algorithm to train the BP network. Example 2 uses the Bayesian
haml
- 用C++实现了梯度下降求多元函数极值的算法,有可能会陷入局部最优解-By c++ implementation of a gradient descent algorithm of multivariate function extreme value, is likely to fall into local optimal solution
RBF_Control
- RBF神经网络控制器,梯度下降更新算法;(RBF neural controller)
Nesterov-accelerated-gradient-descent-master
- 加速梯度下降算法求函数最优值,用加速梯度下降算法,可以明显缩短优化时间(accelerated gradient descent algorithm)
armijo-constant-diminishing
- 使用梯度下降法求无约束问题最优解,包括最速下降法,常数步长下降法等。(Find the best solution to the unconstrained problem, using gradient descent method.)
tensorflow-cnn
- 基于TensorFlow的mnist数据集识别,使用CNN的方法,采用梯度下降学习(MNIST data set recognition based on TensorFlow, using CNN method, using gradient descent learning)
(FR共轭梯度法程序)
- 在共轭梯度法的实际使用中, 通常在迭代 ?? 步或 ?? + 1 步之后, 重新取负梯 度方向作为搜索方向, 我们称之为再开始共轭梯度法. 这是因为对于一般非二次 函数而言, ?? 步迭代后共轭梯度法产生的搜索方向往往不再具有共轭性. 而对于 大规模问题, 常常每 ??(?? < ?? 或 ?? ? ??) 步就进行再开始. 此外, 当搜索方向不 是下降方向时, 也插入负梯度方向作为搜索方向.(In the practical use of conjugate gradient m
HPPP&distance matriix &gradient descent method
- 使用HPPP进行多小区、多用户撒点之后,计算任意用户到任意小区的距离,和梯度下降法寻找最优解(After using HPPP for multi cell and multi-user dissemination, the distance between any user and any cell is calculated;and the gradient descent method is used to find the optimal solution.)
INFO_编程作业(1)
- 采用非监督学习方法 中的梯度下降法,实现简单分类,(Gradient descent method is used to realize simple classification)
Logistic-regression
- 三种梯度下降的logistic regression机器学习入门代码(three logistic regression methods for machine learning)
CNTK
- 在深度的重要性的驱使下,出现了一个新的问题:训练一个更好的网络是否和堆叠更多的层一样简单呢?解决这一问题的障碍便是困扰人们很久的梯度消失/梯度爆炸,这从一开始便阻碍了模型的收敛。归一初始化(normalized initialization)和中间归一化(intermediate normalization)在很大程度上解决了这一问题,它使得数十层的网络在反向传播的随机梯度下降(SGD)上能够收敛。 当深层网络能够收敛时,一个退化问题又出现了:随着网络深度的增加,准确率达到饱和(不足为奇)然后迅
loeal
- 用C++实现了梯度下降求多元函数极值的算法,有可能会陷入局部最优解(By c + + implementation of a gradient descent algorithm of multivariate function extreme value, is likely to fall into local optimal solution)
Bpnet
- 梯度下降法BP神经网络程序,可读取CSV文件(Gradient descent BP neural network program, can read CSV file)
Newton
- 回溯先搜索法梯度下降法与牛顿迭代算法结合的MATLAB例程(Backtracking first search method, gradient descent method and Newton iterative algorithm combined with MATLAB routines)
Project1
- 多层神经网络,在训练过程中采用自适应学习率Adagrad方法。可以实现回归或分类问题。(The adaptive learning rate Adagrad method is adopted in the training process of the multilayer neural network. Regression or classification problems can be achieved.)