搜索资源列表
zuisuxiajiang_2+gongetidu_4
- 使用最速下降法和共轭梯度法实现优化功能,基于MATLAB平台使用m语言编写(Based on the MATLAB platform, steepest descent method and conjugate gradient method are used to achieve the optimization function with M language.)
Untitled
- 建立BP神经网络, 12个隐层神经元,4个输出神经元 tranferFcn属性 'logsig' 隐层采用Sigmoid传输函数 tranferFcn属性 'logsig' 输出层采用Sigmoid传输函数 trainFcn属性 'traingdx' 自适应调整学习速率附加动量因子梯度下降反向传播算法训练函数 learn属性 'learngdm' 附加动量因子的梯度下降学习函数(The BP neural network is established, with 12 hidden la
file1
- 机器学习基础之梯度下降算法的matlab源代码(Machine learning basis of the gradient descent algorithm matlab source code.)
XOR2
- 该程序用BP神经网络解决XOR问题,其中设置了恒定权值、阈值和随机权值、阈值;并且将梯度下降法进行添加记忆一项来改进。(Using BP neural network to solve XOR problem, the program which set up a constant weight and threshold and random weight and threshold value;And the gradient descent method to add a to impro
exercise 3
- 梯度下降法求解logisitic回归及其python代码实现(Logistic Regression Gradient Descent)
BPdaqi
- 利用BP神经网络,以及梯度下降算法,实现对大气PM2,5的预测。(The prediction of atmospheric PM2. 5 is realized by BP neural network and gradient descent algorithm.)
优化算法
- 解决了最小无约束优化问题 步长由ARmijo非精确一维搜索生成,迭代方向分别由最速下降法,阻尼牛顿法,共轭梯度法,拟牛顿法(BFGS)产生(This code solves the minimum unconstrained optimization problem, and the step size is generated by ARmijo inexact one-dimensional search. The iterative directions are generated b
wohoyr
- 用C++实现了梯度下降求多元函数极值的算法,有可能会陷入局部最优解()
gradient.m
- 最速下降法的简明例子,注释详细,可以做参考意见(the easy example of steepest descent method)
A1
- 基于梯度下降的推荐算法, 数据库来自neflix网站所注册的用户。(recommendation algorithm based on gradient descent)
neg_gradient_traceback
- 实现线性回归搜索的梯度下降算法,梯度方向为负梯度方向(backtracing negtive gradient search method)
knn
- python语言编写的,利用KNN实现分类以及梯度下降算法。(Use kNN to classify)
C02_openAHRS_20170926
- OpenAHRS中文注解版-9轴手机传感器数据融合的梯度下降法(OpenAHRS CHINESE STYLE)
DHXYWFE282
- 用于汽车巡航控制系统的模糊控制算法,以及如何利用梯度下降法和卡尔曼滤波来优化模糊控制器的算法,The files illu()
fitness
- 比如每个企业和个人都要考虑的一个问题“在一定成本下,如何使利润最大化”等。最优化方法是一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称。随着学习的深入,博主越来越发现最优化方法的重要性,学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解,比如我们现在学习的机器学习算法,大部分的机器学习算法的本质都是建立优化模型,通过最优化方法对目标函数(或损失函数)进行优化,从而训练出最好的模型。常见的最优化方法有梯度下降法、牛顿法和拟牛顿法
PSO
- 梯度下降法是最早最简单,也是最为常用的最优化方法。梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的。梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向,因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“。最速下降法越接近目标值,步长越小,前进越慢。(The gradient descent method is the earliest and most simple and most commo
fbxpopw
- 用于汽车巡航控制系统的模糊控制算法,以及如何利用梯度下降法和卡尔曼滤波来优化模糊控制器的算法,The files illu()
puia
- 用C++实现了梯度下降求多元函数极值的算法,有可能会陷入局部最优解()
线性回归
- matlab线性回归计算,基于梯度下降的线性回归算法(matlab linear regression)
Run_MNIST
- 下载MNIST数据集(手写体数字0-9)后,搭建卷积神经网络,将输入的数据集经过一层一层的卷积,到最后计算交叉熵,用梯度下降算法去优化它,使它变得最小,这就训练出了权重和偏置量,识别的准确率为91%(Download the MNIST data set (handwritten number 0-9), build a convolutional neural network, the input data set by convolutional layers, finally calcul