CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 人工智能/神经网络/遗传算法 搜索资源 - Ensemble Learning

搜索资源列表

  1. C45Rule-PANE

    0下载:
  2. Descr iption: C4.5Rule-PANE is a rule learning method which could generate accurate and comprehensible symbolic rules, through regarding a neural network ensemble as a pre-process of a rule inducer. Reference: Z.-H. Zhou and Y. Jiang. Medical diagn
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:8122
    • 提供者:修宇
  1. icsiboost-0.3.tar

    0下载:
  2. Boosting is a meta-learning approach that aims at combining an ensemble of weak classifiers to form a strong classifier. Adaptive Boosting (Adaboost) implements this idea as a greedy search for a linear combination of classifiers by overweighting the
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:116681
    • 提供者:njustyw
  1. coforest

    0下载:
  2. CoForest是一种半监督算法,处理集成学习及利用大量未标记数据得到更优越性能的假设。-CoForest is a semi-supervised algorithm, which exploits the power of ensemble learning and large amount of unlabeled data available to produce hypothesis with better performance.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-15
    • 文件大小:6595
    • 提供者:李平
  1. cPP-TSP-Ensemble

    0下载:
  2. 7个c++版TSP问题,收集到的可用版本。方便大家的学习和使用!-7 c++ version of the TSP problem, collect the available versions. Facilitate learning and use!
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-22
    • 文件大小:6708142
    • 提供者:马俊
  1. OCD--code

    1下载:
  2. 通过对集成误差公式的理论分析,提出了一种能主动引导个体网络进行差异性学习的集成网络学习算法。该方法通过对集成误差的分解,使个体网络的训练准则函数中包含个体网络误差相关度的因素,并通过协同训练,引导个体网络进行差异性学习。该方法在基于油气分析的变压器故障诊断的实验结果表明,该方法的故障诊断准确率优于传统的三比值法与BP神经网络,其性能也比经典的集成方法Bagging和Boosting方法更稳定可靠。-A learning algorithm is proposed in this paper by
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-12-05
    • 文件大小:27634
    • 提供者:刘茂
  1. ADL-code

    1下载:
  2. 通过对集成误差公式的理论分析,提出了一种能主动引导个体网络进行差异性学习的集成网络学习算法。该方法通过对集成误差的分解,使个体网络的训练准则函数中包含个体网络误差相关度的因素,并通过协同训练,引导个体网络进行差异性学习。该方法在基于油气分析的变压器故障诊断的实验结果表明,该方法的故障诊断准确率优于传统的三比值法与BP神经网络,其性能也比经典的集成方法Bagging和Boosting方法更稳定可靠。-A learning algorithm is proposed in this paper by
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-15
    • 文件大小:24485
    • 提供者:刘茂
  1. multi-class-problem

    2下载:
  2. 将多类别问题分解成多个二类别问题是解决多类别分类问题的常用方式。传统one against all(OAA)分解方式的性能更多的依赖于个体分类器的精度,而不是它的差异性。本文介绍一种基于集成学习的适于多类问题的神经网络集成模型,其基本模块由一个OAA方式的二类别分类器和一个补充多类分类器组成。测试表明,该模型在多类问题上比其他经典集成算法有着更高的精度,并且有较少存储空间和计算时间的优势。-Decompose multi-class problem into multiple binary cl
  3. 所属分类:AI-NN-PR

    • 发布日期:2015-05-17
    • 文件大小:8192
    • 提供者:刘茂
  1. Machine_Learning

    0下载:
  2. 包括无监督和监督的机器学习技术 • K-means and other clustering tools • Neural Networks • Decision trees and ensemble learning • Naï ve Bayes Classification • Linear, logistic and nonlinear regression-Highlights include unsu
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-05
    • 文件大小:903413
    • 提供者:Kevin
  1. ensemble-learing-for-decision-tree

    0下载:
  2. 决策树的集成学习,用Java语言实现!具有良好的分类性能!-ensemble learning for decision tree
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-28
    • 文件大小:254850
    • 提供者:aiko
  1. miltool

    0下载:
  2. 多示例学习的算法集合,集成了各种主流设计算法-An ensemble of the typical multiple-instance learning algorithms
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-25
    • 文件大小:251958
    • 提供者:susan
  1. robustlssvm

    1下载:
  2. 鲁棒最小二乘双支持向量机集成学习算法,对于初学者的理解应用特别好用-Robust least squares double support vector machine ensemble learning algorithm for beginners to understand the application of special good use
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-13
    • 文件大小:1572
    • 提供者:小郎
  1. Ensemble-Learning

    0下载:
  2. 集成学习将若干基分类器的预测结果进行综合,具体包括Bagging算法和AdaBoost算法;还有随机森林算法,利用多棵树对样本进行训练并预测的一种分类器-Integrated learning integrates the prediction results of several base classifiers, including Bagging algorithm and AdaBoost algorithm and random forest algorithm, using a t
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-13
    • 文件大小:1629
    • 提供者:董小鱼
  1. demo3

    0下载:
  2. 在demo中,用EKF和有噪声的EKF训练非线性、非平稳数据。-In this demo, I use the EKF and EKF with noise adaptation to train a neural network with data generated a nonlinear, non-stationary state space model. Adaptation is done by matching the innovations ensemble covariance
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-12-15
    • 文件大小:5120
    • 提供者:zhang
  1. CNTK

    0下载:
  2. 在深度的重要性的驱使下,出现了一个新的问题:训练一个更好的网络是否和堆叠更多的层一样简单呢?解决这一问题的障碍便是困扰人们很久的梯度消失/梯度爆炸,这从一开始便阻碍了模型的收敛。归一初始化(normalized initialization)和中间归一化(intermediate normalization)在很大程度上解决了这一问题,它使得数十层的网络在反向传播的随机梯度下降(SGD)上能够收敛。 当深层网络能够收敛时,一个退化问题又出现了:随着网络深度的增加,准确率达到饱和(不足为奇)然后迅
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-20
    • 文件大小:59675648
    • 提供者:夏豆子
搜珍网 www.dssz.com