基于国密SM2的高效范围证明协议

来源 :计算机学报 | 被引量 : 0次 | 上传用户:bonkoliu
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
在范围证明这类特殊的零知识证明协议中,证明者无需提供具体元素信息即可向验证者证明某一承诺的元素在指定集合内.范围证明已被广泛应用于区块链、匿名证书、电子现金、群/环签名等需要身份/数据隐私保护的场景.范围证明协议的设计方法包括平方分解(Square Decomposition)、签名基(Signature-based)、内积(Inner-product Argument)等,其中使用较为广泛的是Camenisch等在ASIACRYPT 2008会议上提出的签名基方法.然而,Camenisch等提出的范围证明协议不仅需要高耗时的双线性对运算,还涉及繁琐的证书管理,实用性还有待提高.虽然何德彪等(专利申请公布号:CN110311776A)利用国密SM9数字签名算法设计新的协议,避免了证书管理,但仍需要双线性对运算,所以协议的计算开销还较高.为了进一步减少计算量,丰富国产密码的应用,本文采用签名基方法,利用基于国密SM2的标识数字签名算法设计新的集合关系证明协议,有效解决证书管理和双线性对开销问题,在此基础上构造新的数值范围证明协议,支持更大范围的零知识证明.为了证明所设计协议的安全性,本文先证明基于国密SM2的标识数字签名算法在自适应选择消息和身份攻击下具有存在不可伪造性(EUF-CM-ID-A),在此基础上证明所设计协议满足完备性、可靠性和诚实验证者零知识性.与Camenisch等和何德彪等提出的协议相比,在相同优化参数情况下,本文协议的主要通信带宽约为1568字节,分别减少了41.66%和78.12%;主要计算开销约为491.5075毫秒,分别减少了85.93%和85.85%.这说明了本文设计的协议具有更强的实用性,更能满足前述场景的身份/数据隐私保护与有效性验证需求.
其他文献
随着形式化方法的普及和应用,定理证明器HOL4在形式化建模过程中无法自动完成终止证明的情况越来越多,而手动终止证明又缺少通用的证明思路.针对这种情况,提出规范化的手动终止证明方法.该方法从问题产生的本质入手,首先保证目标具备解决终止问题的必要条件,然后通过等效替换简化证明目标,最后以原有定理库为基础,寻找证明过程中缺失的引理,推进证明.实例表明,该方法逻辑清晰,能够有效地解决HOL4中大部分情况下的手动终止证明问题.
针对多标签学习中实例标签的缺失补全和预测问题,本文提出一种基于正则化的半监督弱标签分类方法(简称SWCMR),方法同时兼顾实例相似性和标签相关性.SWCMR首先根据标签相关性对弱标签实例的缺失标签进行初步预估,然后利用弱标签实例和无标签实例构造邻域图,从实例相似性和标签相关性角度构建基于平滑性假设的正则化项,接下来利用预估后的弱标签实例结合无标签实例训练半监督弱标签分类模型.在多种公共多标签数据集上的实验结果表明,SWCMR提高了分类性能,尤其是标签信息较少时,分类效果提升更显著.
移动边缘计算作为新型的计算范式,为降低网络延迟、能耗开销提供了新的思路.其将中心云的强大算力下沉至网络边缘,使得用户能够将计算任务卸载至物理位置更近的边缘服务器执行,从而节省经由核心网的时延与能耗开销.然而,由于移动边缘计算技术通常受到计算资源、网络传输带宽、设备电量等因素的制约,如何在有限的资源中获取最大的利用率成为亟待解决的难题.此外,复杂的网络服务可以被抽象为由若干个子服务按照一定拓扑结构组成的组合服务,然而紊乱多变的移动网络环境为用户策略赋予了时空特性、决策耦合、边缘节点异构以及计算复杂度高的特性
近年来,越来越多的研究人员尝试将边缘计算场景中收集的数据存储在区块链上,以解决传统数据存储方案中数据安全性差、防篡改性弱的问题.然而在已有的设计方案中,设备往往需要保存完整的区块数据,并且在对链上的特定数据进行取回或验证时,需要遍历大量的区块以找到对应的数据,降低了边缘计算场景中用户侧的响应速度.此外,传统共识算法也不适用于资源受限的终端设备.针对上述问题,本文提出了一种面向边缘计算的多层区块链网络模型.具体地,该模型被分为了核心层、边缘层和终端层三层:终端层被划分为多个局部网络,每一个局部网络中都包含了
云存储为用户提供文件外包存储功能,然而随着数据外包数量的激增,数据去重复变得至关重要.目前数据压缩非常有效也是很常用的一个手段是去重,即识别数据中冗余的数据块,只存储其中的一份.以前的方案可以满足不同的用户将相同的文件加密为相同的密文,这样暴露了文件的一致性,随后的方案提出基于集中式服务器作为去重辅助的方案,随着用户的增加,数据去重效率也随之降低.针对目前云存储的安全性及数据去重效率低等问题,本文提出了跨区域的重复数据删除方案.所提方案为每个数据生成随机标签和固定长度的随机密文,确保多域重复数据消除下的数
目前通过3D扫描仪获取的点云仍旧存在一些缺陷:点云含有噪声,点云在不同方向上分布不均匀等.本文针对上述问题开展研究.主要工作为提出一种新的算法用于在点云上进行高质量的重采样,即使用较为稀疏的重采样点集去表达较为密集的原始点云的几何形状,同时重采样点集的分布可以满足用户预先指定的目标分布,并具备一定的蓝噪声性质.在最优传输理论的基础之上,本文方法将传统的点云重采样问题转化为一个最优化问题,并在点云上构建离散网格,使得针对网格的受限制的Power剖分方法能够迁移至点云上.随后利用交叉优化框架对该优化问题进行求
如何识别同一物体的不同结构的表现形式,对于机器而言,是一个比较困难的识别工作.本文以易变形的纸币为例,提出了一种基于异构特征聚合的局部视图扭曲型纸币识别方法.首先利用灰度梯度共生矩阵、Haishoku算法和圆形LBP分别获得纹理风格、色谱风格和纹理,这些特征从不同的角度描述了局部纸币图像,然后通过VGG-16、ResNet-18和DenseNet-121网络学习这些不变形特征得到输出特征,将输出特征聚合后输入识别层Softmax,达到三模型融合效果,进而识别局部视图扭曲型纸币.实验结果表明,多特征聚合和不
在大数据时代下,深度学习理论和技术取得的突破性进展,为人工智能提供了数据和算法层面的强有力支撑,同时促进了深度学习的规模化和产业化发展.然而,尽管深度学习模型在现实应用中有着出色的表现,但其本身仍然面临着诸多的安全威胁.为了构建安全可靠的深度学习系统,消除深度学习模型在实际部署应用中的潜在安全风险,深度学习模型鲁棒性分析问题吸引了学术界和工业界的广泛关注,一大批学者分别从精确和近似的角度对深度学习模型鲁棒性问题进行了深入的研究,并且提出了一系列的模型鲁棒性量化分析方法.在本综述中,我们回顾了深度学习模型鲁
随着信息技术的快速发展,信息网络无处不在,例如社交网络、学术网络、万维网等.由于网络规模不断扩大以及数据的稀疏性,信息网络的分析方法面临巨大挑战.作为应对网络规模及数据稀疏挑战的有效方法,信息网络表征学习旨在利用网络的拓扑结构、节点内容等信息将节点嵌入到低维的向量空间中,同时保留原始网络固有的结构特征和内容特征,从而使节点的分类、聚类、链路预测等网络分析任务能够基于低维、稠密的向量完成.由多种类型的节点和连边构成的异质信息网络包含更加全面、丰富的结构和语义信息,因此异质信息网络的表征学习不仅能够有效缓解网
脆弱的地球生态、亟待治理的现代城市、人民群众的健康及其对城乡面貌优质环境的渴望……都离不开环境卫生工作.中世纪的欧洲,由于垃圾不能及时从城里运出,环境脏乱差,造成鼠疫暴发流行,死亡逾百万人.我国历史上也曾多次出现瘟疫流行,造成生命和财产的重大损失.
期刊