切换导航
文档转换
企业服务
Action
Another action
Something else here
Separated link
One more separated link
vip购买
不 限
期刊论文
硕博论文
会议论文
报 纸
英文论文
全文
主题
作者
摘要
关键词
搜索
您的位置
首页
期刊论文
分数阶系统的动力性质及反馈控制
分数阶系统的动力性质及反馈控制
来源 :控制理论与应用 | 被引量 : 0次 | 上传用户:rechardfeng
【摘 要】
:
利用一元连续函数的介值定理和Gerschgorim圆盘定理,分别给出了分数阶系统混沌性和稳定性的一个充分判据.应用该判据,可以对所有的分数阶混沌系统进行反馈控制.最后将此理论
【作 者】
:
吴新星
朱培勇
郑远明
【机 构】
:
电子科技大学数学科学学院
【出 处】
:
控制理论与应用
【发表日期】
:
2012年10期
【关键词】
:
分数阶系统
稳定性
反馈控制
fractional system
stability
feedback control
下载到本地 , 更方便阅读
下载此文
赞助VIP
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
利用一元连续函数的介值定理和Gerschgorim圆盘定理,分别给出了分数阶系统混沌性和稳定性的一个充分判据.应用该判据,可以对所有的分数阶混沌系统进行反馈控制.最后将此理论应用于文献[12]新提出的分数阶混沌金融系统,仿真结果验证了此理论的正确性.
其他文献
一类带有加速度约束的非线性系统最优滑模控制
针对加速度受约束的非线性时变系统,设计了一种全局最优滑模控制算法.首先引入全程滑态因子,保证滑模面一开始就在零值附近,然后选取位置跟踪误差绝对值的积分为指标函数,通
期刊
加速度约束
滑模控制
鲁棒性
acceleration constraint
sliding-mode control
robustness
2004年全国塑质地掷球锦标赛风采
云南以其美丽、富饶、神奇而著称于世,一向被外界称为“谧界”。古语云:一日长一丈,云南在天上。它确实离天很近。三百万年前,一次强烈的地壳运动使地处海洋深处的谷地突兀而起,造
期刊
2004年
全国塑质地掷球锦标赛
云南
体育训练基地
体育制度
多阶段多产品调度问题的链式智能体遗传算法
将遗传算法的编码方式与智能体系统的演化结构相结合,提出一种求解多阶段多产品调度问题的链式智能体遗传算法.算法采用基于订单序列的编码方式,采用一种新的后向指派规则实
期刊
多阶段多产品调度问题
启发式规则
遗传算法
智能体系统
multi-stage multi-product scheduling problem
heuris
低聚木糖在蛋糕中的应用
主要探讨了低聚木糖对蛋糕的品质、保质期、蛋糊的稳定性及主要配料用量的影响,为工业化生产提供依据.
期刊
低聚木糖
蛋糕
焙烤食品
品质
稳定性
枸杞营养保健酸奶加工技术研究
本研究用枸杞和鲜牛乳为主要原料,辅以蔗糖、稳定剂等辅料,制成的酸奶既可提高营养与保健价值,又能改善酸奶的风味和口感.
期刊
枸杞
鲜牛乳
酸奶
加工技术
发酵剂
配方
冲突性制度约束下的分离——慈善组织运作的策略选择
在制度供给中占据主导地位的政府,对慈善组织的管理存在着社会资源获得和社会控制需求之间的矛盾。这种冲突性制度环境导致慈善组织的合法性和活动效率之间产生矛盾,只有准行政
期刊
慈善基金会
合法化
效率
Charity Foundation
Legalization
Efficiency
船舶航向保持变论域模糊–最小二乘支持向量机复合控制
针对船舶航向运动具有强非线性,并受各种不确定随机干扰的作用,提出了基于最小二乘支持向量机与变论域模糊逻辑的船舶航向保持复合控制方案,该控制方案利用最小二乘支持向量
期刊
船舶航向保持
模糊控制
变论域
最小二乘支持向量机
ship course-keeping
fuzzy control
variable universe
基于形状记忆合金驱动器的微纳定位系统鲁棒自适应控制
针对基于智能材料驱动器串联驱动的微纳定位系统,本文主要探讨了此类高精定位系统的控制设计策略.其控制设计的主要任务是消除驱动器中未知回滞特性对系统性能所造成的负面影
期刊
鲁棒自适应控制
回滞
智能材料
非线性控制
robust adaptive control
hysteresis
smart-materials
nonl
裁判方法示例及问答
期刊
掷球运动
裁判方法
运动员
击球技术
移动机器人路径规划强化学习的初始化
针对现有机器人路径规划强化学习算法收敛速度慢的问题,提出了一种基于人工势能场的移动机器人强化学习初始化方法.将机器人工作环境虚拟化为一个人工势能场,利用先验知识确定场中每点的势能值,它代表最优策略可获得的最大累积回报.例如障碍物区域势能值为零,目标点的势能值为全局最大.然后定义Q初始值为当前点的立即回报加上后继点的最大折算累积回报.改进算法通过Q值初始化,使得学习过程收敛速度更快,收敛过程更稳定.
期刊
移动机器人
强化学习
人工势能场
路径规划
Q值初始化
mobile robots
reinforcement learning
artificial po
与本文相关的学术论文