论文部分内容阅读
有效地分析边缘设备中的计算资源信息是边缘计算领域研究的重点之一,其中计算资源的利用是边缘的协同合作的重要研究点。本文详细地考虑了能耗、时延等层面的约束,提出了能耗更小的研究方案。针对现有的边缘协同合作模型不足,本文从边缘计算节点和边缘计算分层两种情况对边缘协同合作分析进行深入研究,具体研究内容如下:1.针对边缘计算节点情况,考虑到大量移动端产生的数据传送到边缘服务器,将致使边缘服务器计算增加、效率降低下以及协作范围受限等问题,提出任务转移和计算资源分配算法。考虑到每个移动终端都有多个任务被卸载到边缘服务器的边缘计算系统,通过边缘服务器的智能代理机制设计协作决策和计算资源分配优化。本文将当前服务器的状态决策作为状态样本放入智能代理的经验池中予以迭代,经验池的选择会致使Q值的增加,从而目标值随着优化过程而提高,最后求出最优决策近似解,使边缘服务器的总体卸载成本在能耗成本和延迟方面最小化。仿真数值结果表明,该算法可以获得更优的节能效果。2.针对边缘分层情况,考虑到边缘计算层与终端层的计算资源需求量和输出数据量都具有显著的差异性,将导致资源受限、能耗过高等问题,本文提出的深度学习模型能高效部署边缘端。该算法基于深度模型的多样性,将模型切分为两个部分,分别是边缘端服务器与终端设备,通过终端设备与边缘服务器之间的协同有效降低深度学习模型的时延。首先面对资源需求相对大的计算,选择将深度模型切分为不同大小的神经网络构,训练出最佳的模型分割来发挥终端与边缘协同的计算优势。然后,面对资源需求相对小的计算,训练出精简“小模型”,提高计算资源的利用率。对于任意的深度学习任务,可以离线训练具有多个选择的分支网络退出点,需要的准确性越高,则模型越大,并且退出点越靠后相对时间越长。仿真结果验证了当深度学习任务的完成时间比较紧迫时,可以选择适当地牺牲模型的精确度达到更好的节能效果。