搜索资源列表
01
- 二维、三维约束性粒子群算法。可直接使用,若要使用对自己的函数则将目标函数进行修改即可- Two-dimensional, three-dimensional binding particle swarm optimization. Can be used directly, to use for their function will be objective function can be modified
数学理论和方法
- MATLAB研究线性约束条件下线性目标函数的极值问题的数学理论和方法- MATLAB mathematical theory and methods for linear constraints of linear objective function extremum problems
minJSMixFun
- 多维目标函数的加速混合罚参数法,可解含不等式约束和等式约束问题。-The accelerated method of mixed penalty parameters for multidimensional objective function, the solvability problem with inequality constraints and equality constraints.
Lagrangian-relaxation
- 拉格朗日松弛,将目标函数中造成问题难的约束吸收到目标函数中,并保持目标函数的线性,使问题更加容易求解。-Lagrangian relaxation
AdapGA
- matlab文件 自适应遗传算法 在MATLAB中实现自适应算法的函数是:AdapGA 功能:用自适应算法解决一维的无约束化问题。 调用格式:[xv,fv]=AdapGA(fitness,a,b,NP,NG,Pc1,Pc2,Pm1,Pm2,eps) 其中fitness是带优化的目标函数。 -matlab file
xxghDesktop
- 线性规划的案例,目标函数,约束条件和函数输出的计算简单例子-this is a simple LP examples,it is suitable for students to study
Robust-Beamforming-via-Semidefinite
- 现有的向量加权稳健波束形成方法只有在指向误差较小的情况下才能有效估计目标的信号功率;矩阵加权波束形成方法在指向误差较大时,虽然可以估计目标的信号功率,但是它的系统实现复杂度与向量加权稳健波束形 成方法相比较大。针对以上问题,该文提出基于半正定秩松弛(SDR)方法的稳健波束形成,该方法优化模型中的目标函数与Capon 算法的目标函数相同,优化变量为加权向量的协方差矩阵,并约束方向图的主瓣幅度波动范围、旁瓣电平,协方差矩阵的秩为1。-The existing vector weighted ro
mymopso
- 用多目标粒子群优化来求解多目标优化问题,该方法可求解各种多目标问题。程序内包含多种测试函数,和适应度函数求解程序及目标函数和约束函数的具体程序说明。-Multi-objective particle swarm optimization to solve the multi-objective optimization problem which can be solved a variety of multi-objective problem. Specific procedures wit
Quadratic-Programming
- 功能:用拉格朗日方法求解等式约束二次规划:min f(x)=0.5*x Hx+c x,s.t.Ax=b 输入:H,c分别是目标函数的矩阵和向量,A,b分别是约束条件中的矩阵和向量 输出:(x,lam)是KT点,fval是最优值。-Function: Lagrangian method for solving equality constrained quadratic programming: min f (x) = 0.5* x Hx+ c x, s.t.Ax = b Input:
GA
- 遗传算法求解无约束目标函数,包含选择操作,变异操作,杂交操作,以及将十进制转化为二进制的编码操作-Genetic Algorithm unconstrained objective function comprises selecting operation, mutation, crossover operation, and will be converted to binary coded decimal operation
ParallelAdaptiveClonalSelection
- 并行自适应克隆选择算法 在FbgFunc.m中设置目标函数和优化参数 在CloneySelection.m中设置参数取值范围及其他算法参数 本算法在基本克隆选择算法的基础上增加自适应和并行功能计算效率比基本克隆选择算法高。 附带论文为本人为第一作者撰写的,论文中有一部分内容介绍该算法流程。 对该算法有任何疑问可以通过dxbsoccer@163.com联系我。 目前该算法暂时是无约束优化,欢迎大家试用并提出宝贵意见。-Parallel adaptive clon
quasi-Newton-method
- 功能:用BFGS算法求解无约束问题:min f(x) 输入:x0是初始点,fun,gfun分别是目标函数及其梯度; varargin是输入的可变参数变量,简单调用bfgs时可以忽略它 但若其他程序循环调用该程序时将发生重要作用-Function: with BFGS algorithm solving unconstrained problem: min f (x) input: x0 is the initial point, fun, gfun respective
Conjugate-gradient-method
- 功能:用FR共轭梯度法求解无约束问题:min f(x) 输入:x0是初始点,fun,gfun分别是目标函数和梯度 输出:x,val分别是近似最优点和最优值,k是迭代次数-Features: use FR conjugate gradient method to solve the unconstrained problem: min f (x) input: x0 is the initial point, fun, gfun is the objective functio
Multi-dimensional-function-GA
- 遗传算法处理多维目标函数,约束条件是不同范围下的独立条件。-Genetic algorithm processing multi-dimensional objective function, constraints are independent under the condition of different areas.
Archetype-Hull-Ranking
- 我们设计一个新奇的规则化框架以学习相似性度量用于无约束人脸验证。我们形式化它的目标函数通过融合鲁棒性对于大规模的个人人脸的内部变化和新奇的相似性度量的辨别力。额外,我们的形式是一个凸优化问题,保证了全局最优解的存在。-we migrate such a geometric model to address face recognition and verification together through proposing a unified archetype hull rankin
complex
- 本程序为任意维度的复合形程序(适用于解决含不等式约束的优化问题),只需修改相应的初始复合形、目标函数及约束条件等即可求出极小值。-This procedure for any dimension of complex procedures (applicable to solve the optimization problem with inequality constraints).The reader only needs to modify the corresponding initi
PSOt
- 对于约束优化问题,大多数算法都基于梯度的概念,要求目标函数和约束条件可微,而且一般只 能求得局部最优解’ 粒子群优化算法(@DMLEP&H 6VDMS .RLESDTEL F,简称 @6.) [ ,)] ,由于其具有容易理 解、易于实现、不要求目标函数和约束条件可微,并能以较大概率求得全局最优解的特点,目前已在 许多优化问题中得到成功应用-For constrained optimization problems, most algorithms are based on the
quadratic-programming
- 二次规划为非线性规划的一种,若某非线性规划的目标函数为自变量x 的二次函数,约束条件又全是线性的,就称这种规划为二次规划。 -Quadratic programming as a nonlinear programming, if the objective function of a nonlinear programming quadratic function as independent variable x, and the constraints are all linear, ca
BFGS
- 功能:用BFGS算法求解无约束问题:min f(x) 输入:x0是初始点,fun,gfun分别是目标函数及其梯度; varargin是输入可变参数变量,简单调用bfgs时可以忽略它, 但是其他程序循环调用时将会发挥重要作用 输出:x,val分别是近似最优点和最优值,k是迭代次数。-Function: BFGS algorithm for unconstrained problem: min f (x) Input: X0 is the initial point, fu
BFGS
- 拟牛顿法和最速下降法(Steepest Descent Methods)一样只要求每一步迭代时知道目标函数的梯度。通过测量梯度的变化,构造一个目标函数的模型使之足以产生超线性收敛性。这类方法大大优于最速下降法,尤其对于困难的问题。另外,因为拟牛顿法不需要二阶导数的信息,所以有时比牛顿法(Newton s Method)更为有效。如今,优化软件中包含了大量的拟牛顿算法用来解决无约束,约束,和大规模的优化问题。-The quasi-Newton method and the Steepest Des