【摘 要】
:
鱼雷武器可对敌方水面舰艇形成巨大威慑,能否有效突破其防御系统是研究问题的关键,基于蒙特卡洛法,分别仿真计算了鱼雷对两种反鱼雷鱼雷(ATT)直接拦截弹道和提前角拦截弹道的突防概率。模拟了高速/超高速鱼雷在两种不同作战模式及不同敌我态势下的突防概率。结果表明,对抗条件下,攻击鱼雷速度提高至200 kn,敌我鱼雷速度比为0.25时,突防概率达到100%,超高速鱼雷具有绝对的突防优势和极高的突防概率。该研究可为水下兵器打击水面舰艇作战效能分析提供理论参考。
【基金项目】
:
中央引导地方科技发展基金项目(216Z4601G),河北省重点研发计划(21313501D)。
论文部分内容阅读
鱼雷武器可对敌方水面舰艇形成巨大威慑,能否有效突破其防御系统是研究问题的关键,基于蒙特卡洛法,分别仿真计算了鱼雷对两种反鱼雷鱼雷(ATT)直接拦截弹道和提前角拦截弹道的突防概率。模拟了高速/超高速鱼雷在两种不同作战模式及不同敌我态势下的突防概率。结果表明,对抗条件下,攻击鱼雷速度提高至200 kn,敌我鱼雷速度比为0.25时,突防概率达到100%,超高速鱼雷具有绝对的突防优势和极高的突防概率。该研究可为水下兵器打击水面舰艇作战效能分析提供理论参考。
其他文献
煤矿采空区的填充物与围岩的接触面存在明显的波阻抗差异,而微动探测技术的物性基础是地下介质的波阻抗差异,如岩层中出现碎石、空洞等波阻抗小的介质,在微动成果剖面上表现为相对低速异常,所以使用微动探测技术对煤矿采空区进行探测,是一种比较理想的方法.以安徽某煤矿采空区勘测为例,使用微动探测技术采集天然场微动信号并提取面波频散曲线,通过反演计算,得到地下横波速度结构,获得观测点地下介质的分布信息,进而圈定出可能存在的采空区及影响范围,为煤矿东侧即将建设的铁路提供了地质依据.
作战体系评估是以作战体系为研究对象的评估实践活动。从作战体系评估的内涵出发,从作战体系构建、体系运行、体系运用三个维度构建了作战体系评估的模型体系,并通过相关案例进行实践运用,为作战体系评估的各方面相关研究提供参考和方法支持。
研究了空中突击随队支援干扰兵力使用规划问题,分析了影响随队支援干扰效果的主要因素,提出了随队支援干扰兵力数量的计算方法,建立了突防和突击阶段编队内的间距计算模型、最远干扰距离和偏角计算方法,并通过仿真算例验证了模型方法的有效性和合理性。可为合理进行兵力需求计算、作战编组和作战协同、科学规划突击和掩护航线、优化兵力使用方案等提供参考借鉴。
作战概念研究是军事理论研究的前沿,随着智能化技术的发展,未来空中作战将呈现出智能化武器广泛参与的作战态势,研究空中智能化作战概念设计问题已成为军事领域的研究热点。DoDAF是美颁布的国防部体系结构框架,借鉴DoDAF的相关模型,设计了空中智能化作战概念的体系结构框架,为后续研究我国空中智能化作战概念提供了参考和依据,具有一定的军事现实意义。
兵棋作为研究作战的重要工具之一,其战场环境建模对兵棋推演效果有着重要影响。作战空间的日益扩大,对兵棋推演中的战场环境建模提出了全球性、高效性等需求。介绍了六边形分层空间索引(H3空间索引)、兵棋棋盘建模的基本方法和H3空间索引的基本编码方式,并在其基础上进行战场自然环境建模,基于环境建模的实体机动建模方法研究,最后在传统网格编码方式和H3空间索引编码方式下对棋子机动的典型寻路算法进行模拟,测算比对机动行为仿真计算的吞吐量,验证H3空间索引用于兵棋棋盘建模的可行性。
现代战争中战场信息爆发式增长,新型作战样式不断发展,随着人工智能、边缘计算等新技术的不断涌现,新一代指挥信息系统即将到来。在国际第四代指挥信息系统基础上,设想第五代指挥信息系统总体架构,阐述其知识中心、智能赋能、云边一体、自主演化、韧性适变的技术特征,分析其关键技术及智能化应用,持续提升战场信息优势,并向战场认知优势、决策优势、行动优势转变。
为解决软装备集成优化问题,形成标准统一、通用性好的作战使用模型体系,基于水面舰艇典型作战应用分析,形成了作战应用的基础模型集,同时结合基于组合单元实体建模框架研究,建立了水面舰艇作战使用模型体系,从模型体系构建方面,提出了水面舰艇作战模型的构建规范。该研究对于有效解决当前海军兵力作战使用模型标准不统一、可重用性差、难扩展等问题具有重要的现实意义。
为全面开展导弹健康状态认知与管理能力建设,提升其在复杂战场环境下的生存能力和作战效能,提出了基于PHM(Prognostics and Health Management)的导弹装备多层健康管理系统设计,包括硬件和软件模块,实现了包含导弹核心单机、场景级、全弹三个层次的指标体系构建、性能评估、评估总览、结构评估、故障预报等功能,全面考虑了弹上控制系统与地面控制系统工作特点,基本能满足导弹故障预测与健康管理要求.
Q-learning算法在解决状态-动作空间维数较大的稀疏奖励问题时存在训练效果差,甚至无法收敛的缺点。因此,提出全感知条件下基于奖励塑形的Q-learning算法。算法利用智能体全局感知能力设计带惩罚项的势函数构造奖励塑形函数,解决了稀疏奖励下训练不收敛问题;同时利用智能体对四周环境的感知能力,改进ε-greedy行为策略函数,避免智能体选择明显不合适的动作,加快收敛速度。使用OpenAI Gym生成复杂的迷宫环境验证了提出的算法的有效性。仿真试验表明该算法能够稳定收敛且收敛速度显著增快。