搜索资源列表
wuge
- id3决策树 5个代码的实现 可以实现信息熵的计算 和 分类准则-This course shows the introductions to functional structure, principle, instructions, assemble language programming, interface and application of MCS-51single chip
DecisionTree
- 数据挖掘决策树算法,使用决策树实现分类问题-Data mining decision tree algorithm, using a decision tree to classify problems
MachLearn_ml
- MachLearn:已经实现了朴素贝叶斯分类器、决策树、支持向量机算法。在Linux上可成功编译-MachLearn: has achieved a naive Bayes classifier, decision trees, support vector machine algorithm. Successfully compile on Linux
decisiontree
- matlab决策树程序,输入数据和变量名,输出分类结果-matlab tree program, input data and variable names, the output of the classification results
code
- 机器学习 R语言对与数据进行分类,包括决策树,SVM,贝叶斯,percepttron等算法。需要注意之前要安装相应的R工具包。具体工具包名称百度一下就能容易获取。-R for language and machine learning to classify data, including decision trees, SVM, Bayesian, percepttron algorithm. To install the appropriate R toolkit before need t
rough-set-codes
- 这是天津大学胡清华老师在粗糙集邻域领域做的最经典的源码,同学们可以在此基础上学习和修改,入口程序已经写好,需要其他方法可以自己添加,MAIN.m是入口程序,参数的意思在子函数里讲的很明白,调用了featureselect_FW_fast.m用来属性约简,几个clsf_dpd文件是使用不同的距离公式来计算属性重要度,选择得到属性结果,使用crossvalidate.m十折交叉算法来计算计算算法精度,该段代码调用了几个分类器,C4_5.m是决策树,KNN.m是最近邻分类器,NEC.m是类似于KNN的
RandomForest
- 随机森林是由多棵树组成的分类或回归方法。主要思想来源于Bagging算法,Bagging技术思想主要是给定一弱分类器及训练集,让该学习算法训练多轮,每轮的训练集由原始训练集中有放回的随机抽取,大小一般跟原始训练集相当,这样依次训练多个弱分类器,最终的分类由这些弱分类器组合,对于分类问题一般采用多数投票法,对于回归问题一般采用简单平均法。随机森林在bagging的基础上,每个弱分类器都是决策树,决策树的生成过程中中,在属性的选择上增加了依一定概率选择属性,在这些属性中选择最佳属性及分割点,传统做法
data
- 随机森林算法的构造过程:1、通过给定的原始数据,选出其中部分数据进行决策树的构造,数据选取是”有放回“的过程,我在这里用的是CART分类回归树。 2、随机森林构造完成之后,给定一组测试数据,使得每个分类器对其结果分类进行评估,最后取评估结果的众数最为最终结果-Random Forest algorithm construction process: 1, by a given raw data, which part of the decision tree data structu
python-code-for-Machine-learning
- 用于机器学习的全方位python代码,包括K-近邻算法、决策树、朴素贝叶斯、Logistic 回归 、支持向量机、利用 AdaBoost 元算法提高分类性能、预测数值型数据:回归、树回归、利用 K-均值聚类算法对未标注数据分组、使用 Apriori 算法进行关联分析、使用 FP-growth 算法来高效分析频繁项集、利用 PCA 来简化数据、利用 SVD 简化数据、大数据与 MapReduce-The full range of python code for machine learning
MNIST_classify
- 使用决策树,支持向量机以及人工神经网络完成对MNIST手写数字体的分类。-Using a decision tree, support vector machines and artificial neural network to classify the number of MNIST handwritten font.
Decision-tree-algorithm
- 数据挖掘,机器学习经典分类算法,决策树算法ID3 C4.5 Java实现 开发环境 eclipse-Data mining, machine learning classic classification algorithm, decision tree algorithm ID3 C4.5 Java development environment eclipse
RandomForest
- 机器学习随机森林源码。改变决策树的深度对比分类结果。对鸢尾花数据进行决策树分析-random forest
code
- 采用决策树设计男女生分类器。采用的特征包含身高、体重、是否喜欢数学、是否喜欢文学、是否喜欢运动共五个特征。要求:采用平台提供的软件包进行分类器的设计以及测试,采用交叉验证的方式实现对于性能指标的评判(包含SE,SP,ACC和AUC,AUC的计算基于平台的软件包)。-Decision tree classifier is designed for boys and girls. Characterized by the use of include height, weight, whether
several-classification-algorithm
- 几种基于Matlab的分类算法研究(自组织神经网络,SOM神经网络,LVQ神经网络,决策树,随机森林算法)-Several classification algorithm based on Matlab research (self-organizing neural network, SOM neural network and LVQ neural network, decision tree, the random forest algorithm)
datamining
- 这是一个数据挖掘的算法模型,可以实现多维度、多数据、多分类的数据分析。包含对样本和数据的预处理算法,LM神经网络算法和DT决策树算法,并对两种模型进行评价的算法。-This is a data mining algorithm model, you can achieve multi-dimensional, multi-data, multi-class data analysis. Including the preprocessing algorithm for samples and d
randomForest_4.6-12.tar
- 在机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定。 Leo Breiman和Adele Cutler发展出推论出随机森林的算法。 而 "Random Forests" 是他们的商标。 这个术语是1995年由贝尔实验室的Tin Kam Ho所提出的随机决策森林(random decision forests)而来的。这个方法则是结合 Breimans 的 "Bootstrap aggregating" 想法
ID3
- ID3算法是一个构建决策树的经典算法,该程序可实现数据的分类(ID3 algorithm is a classical algorithm for constructing decision tree, which can classify data)
vlfeat-0.9.20-bin.tar
- 常用工具包,特征提取方法,如HOG,sift等特征,分类方法如决策树,svm等(Commonly used toolkits, feature extraction methods, such as HOG, sift and other features, classification methods, such as decision trees, SVM, etc.)
C4_5
- C4.5算法,优秀的决策树算法,由于求解特征分类问题(C4.5 algorithm, an excellent decision tree algorithm, especially for the problem of feature classification)
类比法
- 型的类比学习方法是K-最近邻方法,它属于懒散学习法,相比决策树等急切学习法,具有训练时间短,但分类时间长的特点。K-最近邻算法可以用于分类和聚类中(The analogy learning method is K- nearest neighbor method. It belongs to the lazy learning method. Compared with the decision tree learning method, it has the characteristics o