含铜钼基合金涂层的SPS烧结及组织性能

来源 :稀有金属 | 被引量 : 0次 | 上传用户:edercito
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
采用放电等离子烧结(SPS)技术在304不锈钢表面制备了一种含30%Cu(质量分数)的TZM合金(钼钛锆合金)涂层.使用拉伸剥离粘合力测试测定了涂层的结合强度;利用热循环试验测试了涂层的热稳定性能;采用摩擦磨损试验机对合金涂层和TZM合金进行了700℃下的高温摩擦磨损试验;通过场发射扫描电镜(SEM)与能谱(EDS)仪分析了涂层组织;使用X射线衍射(XRD)仪测试了涂层的相组成.结果 表明:合金涂层各部分结合得较为良好.胶接拉伸试验断裂于涂层与拉伸棒胶接处,涂层各部分间未发生剥离.在600和800℃下进行热循环试验,涂层沿过渡层开裂、脱落,涂层本身未见裂纹和剥落.高温摩擦磨损试验结果表明TZM合金和合金涂层的磨损机制分别为氧化腐蚀磨损和氧化腐蚀磨损加上轻微的粘着磨损;TZM合金平均摩擦系数为0.44,合金涂层的平均摩擦系数为0.3,相较于TZM合金降低了约32%,铜的加入起到了有效的自润滑减摩擦作用.
其他文献
近年来,视频媒体随着移动互联网的普及发展迅猛,与此同时人脸伪造技术也随着计算机视觉的发展取得了很大的进步.诚然人脸伪造可以用来制作有趣的短视频应用,但由于其易生成、生成用时短、逼真度高等特性,其恶意使用对社会稳定和信息安全产生了极大威胁,如何检测互联网中的人脸伪造视频成为亟待解决的问题.在国内外学者的努力下,伪造检测在近些年也取得了很大的突破,因此旨在对现有的伪造检测方法进行详细的梳理和总结.特别地,首先介绍伪造检测数据集,然后从伪造视频的痕迹、神经网络结构、视频时序信息、人脸身份信息、检测算法泛化性等方
针对基于深度强化学习(deep reinforcement learning,DRL)的激光导航系统的安全性进行研究,首次提出了对抗地图的概念,并在此基础上提出了一种物理对抗攻击方法.该方法使用对抗样本生成算法计算激光测距传感器上的对抗扰动,然后修改原始地图实现这些扰动,得到对抗地图.对抗地图可以在某个特定区域诱导智能体偏离最优路径,最终使机器人导航失败.在物理仿真实验中,对比了智能体在多个原始地图和对抗地图的导航结果,证明了对抗地图攻击方法的有效性,指出了目前DRL技术应用在导航系统上存在的安全隐患.
当前,联邦学习已被认为是解决数据孤岛和隐私保护的有效解决方案,其自身安全性和隐私保护问题一直备受工业界和学术界关注.现有的联邦学习系统已被证明存在诸多漏洞,这些漏洞可被联邦学习系统内部或外部的攻击者所利用,破坏联邦学习数据的安全性.首先对特定场景下联邦学习的概念、分类和威胁模型进行介绍;其次介绍联邦学习的机密性、完整性、可用性(CIA)模型;然后对破坏联邦学习CIA模型的攻击方法进行分类研究;最后对CIA模型当前面临的问题挑战和未来研究方向进行分析和总结.
近年来兴起的深度伪造技术能够高度逼真地模拟和伪造音视频内容,并得到了广泛的良性和恶意应用.针对深度伪造的生成和检测,国内外专家学者进行了深入研究,并提出了相应的生成和检测方案.对现有的基于深度学习的音视频深度伪造生成技术、检测技术、数据集以及未来研究方向进行了全面的概述和详细分析,这些工作将有助于相关人员对深度伪造的理解和对恶意深度伪造防御检测的研究.
薄壁纯铜热管由于其优异的导热能力而广泛应用于具有高热流密度的微型电子器件产品中.然而,在弯曲变形时管壁外侧的“橘皮”状表面粗化问题成为了热管产品使用的瓶颈.针对薄壁烧结纯铜热管弯曲表面“橘皮”缺陷,采用扫捕电镜(SEM)、白光干涉、电子背散射衍射(EB-SD)等方法分析了“橘皮”部位的宏观形貌、三维轮廓、面粗糙度以及管壁内微观组织及晶体取向分布,并讨论了杂质元素磷对表面粗糙程度的影响.结果 表明:经过烧结处理后,热管壁晶粒长大至壁厚尺度,并形成强烈的Goss型再结晶织构;热管中残留的退火孪晶则具有明显的C
由于程序源码和编译后的可执行文件之间存在一定的语义差异,以及用户输入的不确定性,导致在实际应用中无法保证源代码中已经验证过的性质与其可执行文件一致.因此,在不提供程序源代码的情况下,直接对其可执行程序进行脆弱性分析检测更有实际意义.开展了动态污点分析技术在程序脆弱性检测方面的应用研究,设计了基于libdft API程序脆弱性检测工具,并自定义了污染源和污染汇,以适应不同的脆弱性模式.该工具不需要对目标程序的源代码进行分析,可直接对二进制程序进行检测.测试结果表明,该工具可有效检测出心脏滴血攻击、格式化字符
当前安全运营人员面对的是海量的设备日志,需要根据其专家知识或经验来进行调查溯源,大大降低了安全运营的效率,同时也为安全运营设置了较高的知识门槛.为了解决这一问题,提出了一种基于异构属性图的自动化攻击行为语义识别方法,能够实现底层安全日志到上层攻击行为之间的映射.首先,利用异构图对系统日志进行威胁建模;然后,以攻击行为上下文为语义并结合知识图谱表示学习得到图中节点与边的向量表示;接着,利用层次聚类把相似的日志聚合到一起,从中找出最具代表性日志作为整个类的行为表示.最后,对该方法进行了实验验证,可以看出该方法
期刊
近年来,以深度学习为代表的人工智能技术飞速发展,在图像分类、自然语言处理等多个任务中超过了人类表现.在金融、教育、医疗、军事、制造、服务等多个领域,人工智能技术应用不断深化,和社会生活的融合愈加紧密.然而,在这一过程中,人工智能系统自身暴露出众多安全问题,不断涌现出针对人工智能系统的新型安全攻击,包括对抗攻击、投毒攻击、后门攻击、伪造攻击、模型逆向攻击、成员推理攻击等.这些攻击损害了人工智能数据、算法和系统的机密性、完整性和可用性,迫切需要学术界和产业界的共同关注.
期刊
联邦学习可以在保证数据隐私安全及合法合规的基础上实现共同建模,但保证联邦学习模型发布的隐私性以及保证用户对模型的效用仍是亟待解决的问题.提出一种基于安全洗牌和差分隐私的联邦学习模型安全防护方法SFLSDP.联邦模型拥有者利用差分隐私技术对联邦学习的模型参数进行加噪声,生成带噪声的模型参数,之后利用用户授权密钥和安全洗牌算法加密模型参数,并将加密的联邦学习模型参数发送给用户;用户在本地使用联邦学习模型时,利用用户授权密钥和安全洗牌算法解密模型参数密文,得到带噪声的联邦学习模型,将自己的数据作为该模型的输入就