搜索资源列表
编译原理及实践
- 目 录 译者序 前言 第1章 概论 1 1.1 为什么要用编译器 2 1.2 与编译器相关的程序 3 1.3 翻译步骤 5 1.4 编译器中的主要数据结构 8 1.5 编译器结构中的其他问题 10 1.6 &
ImprovedAlgorithmBasedonKernelFunctionandApplicati
- 本文的题目是改进的核函数算法及其在人脸识别中的应用研究。 本文在系统学习现有核函数及支持向量机相关理论的基础上,系统研究了自适应选择核函数算法,通过引入朴素正则风险最小化准则,提出了一种改进的在线核函数算法。算法采用截断误差最小化、合理选取拉格郎日因子等方法对新增样本进行训练,有效地克服了现有方法收敛精度低和不能自适应选择样本的困难。 根据独立分量分析的原理和特点,将改进的核函数算法引入人脸识别的研究中,给出了基于ICA-SVM的人脸识别算法及实现方法。 论文分别应用数值仿
bianyiyuanli
- 输入一个正则表达式(也可以预先将一些测试的正则表达式输入到文件中) (2)输出相应的NFA图(要求用画图方法完成并要求是逐步逐步进行画,好象书本P47例2.12和2.13一样逐步得到结果) (3)NFA转换为DFA(得到的DFA图要求用画图方法完成并要求先产生子集构造表出来再画DFA图) (4)DFA最小化(也要求用画图方法完成) (5)选做部分:将最小化DFA所对应的识别程序自动产生出来。(将自动产生的识别程序以文件形式保存即可,并可以在系统中查看
DFA
- 输入一个正则表达式,输出相应的NFA图,NFA转换为DFA(得到的DFA图要求用画图方法完成并要求先产生子集构造表出来再画DFA图),DFA最小化(也要求用画图方法完成) -Enter a regular expression, the output corresponding NFA map, NFA is converted to DFA (the DFA plans to be asked to use drawing methods and called for the first
LexicalAnalyzer
- 词法分析程序构造原理与实现技术 源程序输入与词法分析程序输出的基本方法;正则文法及其状态转换图的基本概念,正则表达式及有限自动机的基本概念;正规文法构造相应的状态转换图的基本方法;正则表达式构造有限自动机的基本方法及不确定有限自动机确定化的基本方法;词法分析程序的设计与编写。-Lexical analysis program structure and implementation of the principles of technology
matlab-rotating-calculation
- EasySolve: 求取线性方程组AX+B=0的一组解,若解唯一则直接返回该解,若解不唯一则从解集中随机返回一组 程序会根据方程信息自动计算返回的解的合适数量级和随机中心的偏移量,使得返回随机解的大小合适于调用它的程序。 OrnoBasis: 根据输入向量的维度,返回该维度下的一组标准正交基底,输入的列向量组中的有效向量(非零、线性无关)会被标准正交化并作为基向量、按旧有顺序排在增补列向量的前边。 RotaObj: 任意维度下(>=2)的点集的保形旋转(不变形的旋转,
coursera--Assignment-answers
- 机器学习入门级算法,机器学习课堂答案全套。包括牛顿方法,生成学习算法,贝叶斯统计正则化,奇异值分解算法等- U673A u5686 u5B06 u5E6 u5E2 u5E2 u2113 u7E1 u7B97 u6CD5 uFF0C u673A u5668 u5B66 u4E60 u8BFE u5802 u7B54 u6848 u5167 U65B9 u5c2 u53F3 u651F u7Bc R U6C
bpNeural-network-instance
- 例1 采用动量梯度下降算法训练 BP 网络。 例2 采用贝叶斯正则化算法提高 BP 网络的推广能力。在本例中,我们采用两种训练方法,即 L-M 优化算法(trainlm)和贝叶斯正则化算法(trainbr),用以训练 BP 网络,使其能够拟合某一附加有白噪声的正弦样本数据。-Example 1 uses the momentum gradient descent algorithm to train the BP network. Example 2 uses the Bayesian
pr_reg
- 多种最优化方法的集合函数,包括吉洪诺夫正则化算法等。(mutilple method for inverse problem, mainly to solve ill-conditioned system of linear equations.including Tikhonov regularization method.)
DropOut深度网络
- 深度神经网络在测试时面对如此大的网络是很难克服过拟合问题的。 Dropout能够很好地解决这个问题。通过阻止特征检测器的共同作用来提高神经网络的性能。这种方法的关键步骤在于训练时随机丢失网络的节点单元包括与之连接的网络权值。在训练的时候,Dropout方法可以使得网络变得更为简单紧凑。在测试阶段,通过Dropout训练得到的网络能够更准确地预测网络的输出。这种方式有效的减少了网络的过拟合问题,并且比其他正则化的方法有了更明显的提升。 本文通过一个简单的实验来比较使用Dropout方法前后网络
logistic
- python实现的logistic回归,ex2为不带正则化的版本,ex2_reg为正则化版本,从数据集中的两个特征中,采用相乘与取n次方的方法,又人工生成了一些特征,因此加上了正则化。(logistic regression in python)
Chapter04
- 基于tensorflow 的神经网络的损失函数,学习率,正则化,滑动平均等方法(Method of loss function, learning rate, regularization and sliding average of neural network based on tensorflow)
adaptive TVMM demo
- 全变分图像反卷积:MAJORIZATION-MINIMIZATION方法。 《TOTAL VARIATION-BASED IMAGE DECONVOLUTION: A MAJORIZATION-MINIMIZATION APPROACH》这篇论文的源码 本文提出了一种新的在全变差正则化条件下图像反褶积的最大化-最小化算法。(Totally variational image deconvolution: The source of this paper TOTAL VARIATION-B
超限学习机理论讲解及编程实现
- 该方法随机给定神经元权值中的输入权值和阈值,然后通过正则化原则计算输出权值,神经网络依然能逼近任意连续系统。(The method gives the input weights and thresholds of neuron weights randomly, and then calculates the output weights by regularization principle. The neural network can still approximate any cont