论文部分内容阅读
自从第一块集成电路发明以来,半导体产品特征一直遵循着“专用”和“通用”交替发展,每10年波动一次。目前正处在以SoC为特征的专用阶段,然而随着单芯片集成度的增加,以总线为特征的专用SoC系统难以解决有限的地址空间以及单一时钟同步带来的功耗问题。我国学者徐居衍院士预测在某一特定领域通用的用户可重构系统芯片(U-SoC)将成为下一代通用半导体产品特征,U-SoC将作为毛坯芯片,由用户通过软件编程重构硬件,实现特定应用功能。可重构SoC已成为国内外学术界研究的热点,开展可重构系统研究对于加速我国微电子产业的发展具有重要意义。本文将云计算并行处理与资源虚拟特征引入到U-SoC架构设计中,提出“需求+语义+服务”的三层SOA片内云架构。将软件领域构件的概念原子化,实现为粗粒度指令集,电路中的基本功能模块被封装成消息连接的原子构件,通过片内只写总线互联原子构件,建立片内云基本框架。研究片内云架构下“毛坯芯片”的问题求解模型、应用层语言LL7(Language Level7)及片内总线互联机制。问题求解模型包括建模平台和流程设计平台,是毛坯芯片的应用开发环境;定义应用层语言LL7,包括领域指令集(LL7-PS)和应用流程引擎(LL7-PI),将应用场景描述为语义流程,加载到引擎中执行;片内云架构通过片内只写总线及其互联机制实现,包括资源相关访问协议(应用层),统一构件访问协议(网络层)和统一节点接口访问协议(链路层)。LL7和片内云架构均用构件化的IP核实现,部署在芯片内加粗指令粒度,提高并行处理能力,使毛坯芯片在语法元素和语义流程两个维度上均可由用户编程重构,实现一种从算法直接生成集成电路芯片的设计方法。为了建立AVS编码应用研究环境,设计并实现了一种实时视频处理系统。该系统可接收标准或非标准视频输入信号,具有自动聚焦、去隔行、格式转换、帧率提升、图像放大、图像滤波等必要的图像处理功能。提出一种改进的灰度差分自动聚焦算法,采用爬山搜索策略,驱动聚焦电机,以得到当前图像最大聚焦评价函数值,实现自动聚焦;采用场间差值算法,实现去隔行;设计一种双端口DDR2 SDRAM控制器,可满足两个端口对DDR2存储器的同时访问,提高使用效率,应用该控制器实现帧率提升,最高帧率可达75Hz;采用特定比例因子图像放大算法,实现视频图像的实时放大,输出分辨率可放大到1280×768;采用分段线性变换,增强图像对比度;采用中值滤波算法,实现视频图像的实时滤波。视频处理器各模块全部采用VHDL描述,在Xilinx FPGA开发平台上验证。研究并用传统方法实现和验证了AVS视频编码标准。利用FPGA的并行处理能力,采用VHDL硬件描述语言,完成帧内预测、帧间预测、残差、整数DCT变换、量化、熵编码、反量化、IDCT反变换、重构、环路滤波等模块的硬件实现,在Xilinx XUP V5-LX110T FPGA平台上实时实现状态机工作模式下D1分辨率AVS编码器。最后,将这些电路连接的模块封装成消息连接的原子构件。基于AVS编码算法原子构件集合,设计了领域通用的U-SoC毛坯芯片。采用U-SoC片内云架构以及基于该架构的集成电路设计方法设计了自主AVS编码器。对AVS编码器功能进行分析,建立三层SOA模型,通过需求层分析,得到系统用例、用例场景和原子构件集合。语义层定义AVS编码器应用层语言AVS-LL7,得到AVS编码器的语义流程集合。服务层实现AVS原子构件集合,定义构件数据帧格式。AVS-LL7描述的语义流程加载到定序器引擎流程队列中,由引擎自动部署、调用原子构件,实现AVS片内云架构。