论文部分内容阅读
人工智能研究者认为智能Agent必须能够采取某种理性方式维持其心智状态的一致性,进而认识到信念修正理论是Agent各种智能行为的逻辑基础。随着对多Agent系统研究的进展,多Agent系统中知识的表示和推理成为多Agent系统协调、协商以及学习等问题研究的关键和基础。对多Agent系统中信念修正理论的研究是当前Agent、多Agent技术、知识推理和符号逻辑中前沿性的课题,具有非常重要的理论价值和应用意义。
本文对多Agent系统中信念修正的几个方面进行了深入研究,包括:多Agent系统中信息的不确定性对信念修正的影响;多Agent系统信念修正中全局目标与局部目标的协调;多Agent系统中信念修正的框架以及基于信念修正逻辑的多Agent协商。本文的研究内容和创造性研究成果主要有:
1.提出了一种在AGM框架下的基于可信度的迭代信念修正方法。信息可信度根据证据理论中的Dempster合成法则得出,同时指出基于可信度的迭代信念修正与Agent到达信念集的过程有关,具有历史依赖特性。将证据理论和迭代信念修正方法相结合,有效的处理了多Agent系统中信念修正的不确定性问题。
2.提出一种基于粗糙集的合作多Agent信念修正方法。提出公信信念这一新的信念类型,利用粗糙集理论判断冲突信念的支持度,并根据信念的支持度以及基于论证的协商技术计算信念的公信度,将具有最大公信度的信念作为共同认可的信念。这样就使Agent在保证自身信念一致的基础上达到全局目标的一致,解决了多Agent系统中全局信念和局部信念的一致性问题。并且能够利用粗糙集理论的知识约简能力将信念简化,提高信念修正系统的修正效率。
3.运用博弈论,提出了一种多Agent信念修正的框架,该框架适合不同类型的多Agent系统中的信念修正问题。本文提出以信念集的可信度做为衡量标准,根据博弈论来选择最优策略。在合作的多.Agent系统中,根据社会福利准则,Agent总是选择使得整个系统的可信度最大的联合策略。在半竞争多Agent系统中,Agent根据Pareto效率准则来选择修正策略。在竞争多Agent系统中,Agent通过达到Nash平衡来选择修正策略。
4.提出了一种基于信念修正的多Agent多议题协商方法。借助信念修正这一有效的推理工具,协商Agent能够在协商过程中接受对手的劝说,并根据一种基于辩论的信念修正方法调整自身的偏好。实验例表明,劝说式协商Agent能够适应动态的协商环境,快速达成协议,提高协商的效率和成功率。