数字神经形态计算关键模块设计与原型验证

来源 :电子科技大学 | 被引量 : 0次 | 上传用户:wadfgh1234
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
神经形态计算凭借脉冲神经网络优良的生物可解释性和高能效比的优势而倍受关注,目前已有多款数字神经形态计算芯片问世。现阶段的数字神经形态计算硬件多采用一维神经元模型,一维神经元模型的生物细节表达能力却显不足。另有少数的神经形态计算硬件采用了二维神经元模型,但这些芯片所实现的二维神经元模型的硬件资源开销大且神经形态计算系统的可扩展性欠缺。本文在前人研究工作的基础上,针对以上问题,对数字神经形态计算硬件中的关键模块作了如下研究工作:针对一维神经元模型生物细节表达能力不足的问题,本文采用二维的Fitz Hugh-Nagumo(FHN)神经元模型作为数字神经形态计算系统的基本运算单元,相比于LIF神经元模型,FHN模型能模拟出更多的生物脉冲序列样式,且比Hodgkin-Huxley(HH)神经元模型的运算更简洁,因此更适合用于搭建数字神经形态计算系统。针对二维神经元模型硬件资源开销大的问题,本文在设计FHN神经元模型的运算时做了以下尝试:首先采用前向欧拉法对FHN数学模型进行离散化处理,以数值迭代替换微分运算;用sinh函数拟合FHN模型中的高次子式,拟合相对误差最大为0.5%;拟合后的多项式中的自然指数项又可转换为2为底数的指数运算,并对其指数项进行分段线性处理,使用移位运算及加减法替换乘法运算,实现了神经元的无乘法器设计;神经元的内部的运算过程采用流水线结构,在保证运算正确的同时拆分了长耗时运算步骤,优化了时序、提高了运行时钟频率。针对现有部分神经形态计算系统的可扩展性不足的问题,本文设计了数字神经形态计算系统的运算内核。单个内核中集成有128个并行运算的FHN神经元与128个独立的激励电流生成模块。内核中有一个首部调度模块和一个尾部调度模块,用于128个神经元模块的数据同步与数据格式转换。为了减小内核中数据存储压力,设计了权值查找表模块来量化权值,将神经元权值存储开销减小了75%。运算内核为数字神经形态计算系统的基本单元,可通过片上网络的核间互连方式进行同构化地扩展,这极大地提高了系统的可扩展性。本文的数字神经形态计算系统的参数配置网络部分采用分层总线架构,以100M全双工UDP协议配合自动化数据收发软件程序实现了上位机与神经形态计算系统硬件之间的数据自动化传输,通用的传输接口也提高了系统的通用性与易用性。文中对FHN神经元模块、运算内核模块、参数配置网络等各关键模块进行了仿真测试和FPGA原型验证测试,结果显示单个神经元仅占用1536个LUT资源且DSP资源占用为0,实现了神经元模块的无乘法器设计。运算内核与参数配置网络状态跳转与信号时序正确。
其他文献
人工神经网络作为机器学习中的一个重要分支,随着深度学习的发展,在计算机视觉,自然语言处理等人工智能领域得到广泛应用,使用基于神经网络的方法在这些领域的表现已经逼近或超越人类。为了获得更加准确的决策,人们使用更大的数据集和更加复杂的网络结构,使得神经网络需要更长的训练和推理时间,传统通用芯片如CPU,GPU等显得效率不足。根据神经网络的特点在芯片体系结构上进行定制设计的专用芯片具有更高的效率,更加适
卷积神经网络(Convolutional Neural Network,CNN)是深度学习领域最重要的神经网络之一,被广泛地应用于图像处理和目标识别等方面。随着卷积神经网络层数的不断加深,结果不仅没有变得更好,反而出现了网络退化的问题。为了解决这个问题,He Kai Ming提出了残差神经网络(Residual Neteork,ResNet)。通过在网络中的不同层之间进行残差连接使得网络更容易实现
随着硬件计算能力的不断提升以及算法模型的快速更新迭代,人工智能技术在实际生活中拥有广泛的应用。以深度卷积神经网络(Convolutional Neural Network,CNN)为代表的数学模型在语义分割、语义识别、目标检测等计算机视觉领域有着极佳的性能表现。卷积神经网络是一种计算密集型高效算法,目前主要采用通用处理器CPU或GPU完成算法的反向训练和前向推理过程。但是,面对实际应用场景对于硬件
硬件特洛伊木马(Hardware Trojans,简写HTs)是指在芯片设计或制造过程中,在非授权情况下对原始电路进行有目的的修改或篡改,以达到在无条件或者在某种特定触发条件下实现改变系统功能,泄露机密情报或摧毁电路的目的。在Moore定律和Dennard缩放比例定律的指导下,芯片的集成度越来越高。在超大规模集成电路中,单个芯片可以容纳上亿个晶体管。随着IC(Integrated Circuit,
神经网络是人工智能算法的一个重要分支,这种算法具有统一的结构,更换权值即可实现不同的任务,同时权值还可以通过自动的训练获得。这些特性使神经网络可以广泛应用在很多领域,如机器视觉、自然语言处理、加密解密等。但是神经网络具有运算消耗算力大的特点,因此构造一种可以高效处理神经网络算法的推理任务的加速器非常有必要。本文首先分析了卷积神经网络和神经网络加速器的基本理论,在此基础上对神经网络计算模型进行分析,
柔性可穿戴传感器可实现各种情况下的实时人体信号采集,在物联网发展迅速的现代社会起到至关重要的作用。基于石墨烯的新型柔性力学传感器具有良好的生物相容性和优异的电化学性能,且容易通过结构工程进行各种优化设计,但针对各种应用场景的性能优化方案和制备方法还需要更深入的研究。为了探究具有更高敏感度、稳定性和可拉伸范围的柔性石墨烯应力传感器的制备方法,本文利用H2-N2等离子体处理氧化石墨烯(GO),同时实现
雨是现实生活中十分常见的天气,它严重影响能见度,特别是下暴雨的时候。无论是依附在镜头上的雨滴,还是来自各个方向的雨,不断累积,最终使背景场景模糊,严重影响计算机视觉任务的准确性,例如:视频监控、目标检测、自动驾驶中的物体跟踪等。去除图像中的雨线或雨滴不仅可以提高图像的视觉质量,而且对这些计算机视觉任务十分有帮助。如何从下雨场景拍摄的视频和单一图像中恢复出无雨的视频或者背景图像一直是计算机视觉和模式
随着时代的发展,现代战场对于武器装备的要求也越来越高,其中认知能力是必不可少的关键能力之一。通过人工智能技术的使用,使装备系统能够智能地发现、确定、跟踪、瞄准和攻击威胁目标,并对攻击后的效果进行评估。辐射源的识别是认知侦察的关键环节之一,引起了国内外学者们的普遍关注。本文以辐射源识别为核心,重点针对辐射源数据分布存在偏差而识别率低的问题,展开基于迁移学习的辐射源识别技术的研究。具体而言,本文运用迁
随着当今物质生活水平的提高,制造业的标准也在逐步提高,工业制造的元件越来越精密,产品要求越来越高,常用的工厂检测已经不能适应现今大规模的生产进程,并且会束缚生产进度。比如人工检测主要通过工人肉眼识别元器件缺陷,但要求操作工有着丰富的经验以及大量的时间与耐心,且对微小缺陷的检测准确率低。传感器检测能够有效检测部分缺陷,但不同的缺陷需要不同的传感器来检测,有些精密传感器的价格极其昂贵,大大增加了成本。
智能制造的发展驱动了质量检测技术的高速演进,而芯片作为电子信息产业的关键产品,对智能化质量检测技术的工程需求迫切。其中,芯片表面标识的识别技术就具备较高的需求和应用价值。随着光学字符识别技术(Optical Character Recognition,OCR)逐渐深入工业领域,设计和实现适用于芯片相关制造场景的OCR方法,成为解决芯片标识识别问题的关键途径。当前,应用于产业中的芯片标识识别技术主要