论文部分内容阅读
agent系统由于其自身的特点:在动态的、不可预测的、开放的环境中具有自主行为,在电子商务中扮演了重要角色。但是由于所有权不同,agent可能是自私的和不可靠的。没有一个agent可以完全了解它所在的环境,因为在这样的环境中得到一个全局的观点(perspective)是不可能的,或者是代价太高的。由于所有权不同,没有一个中心的权力机构可以控制所有的agent。尽管有这么多的不确定性,系统中一个重要的组成部分—交互—却必须在agent间发生。并且由于单个agent只有关于它所在环境以及其他agent不完全的知识,因此信任在使这些交互顺利进行中扮演了一个重要角色。在交互之前评估信任是很重要的,因为它可以帮助agent评价每个潜在合作伙伴的可信度,以此来决定合作伙伴是否足够可靠到可与之交互。信任可以从以下两个方面得到:个体和社会。前者是agent a与agent b交互的直接经验,并且它们之间可能存在各种各样的关系。后者是由对agent b过去行为的评价报告所组成的(这里称为agent b的信誉,例如,见证人信誉、认证信誉等),b的信誉对没有跟b交互过的agent是很有用的。基于系统中参与者的经验,通过一些方式把这些间接报告综合起来定义agent b的过去行为,使agent a对agent b有一个更全面的了解。由于信任的重要性,许多信任和信誉模型被提了出来。但仍未能有效地解决多agent系统中的信任问题。本文首先介绍了多agent系统中信任的基本概念、研究现状和存在的问题,对目前典型的信任和信誉模型:Referral System、FIRE等模型进行了分析和研究。然后,针对“如何激励agent主动提供诚实信息,如何收集必要的信任信息进行信任值计算”这一问题,在FIRE模型基础之上,提出了一个用于多agent系统的基于忠诚度、具有激励机制的信任和信誉模型,并且详细介绍了模型的设计思想,总体框架。用于多Agent系统的基于忠诚度、具有激励机制的信任和信誉模型不同于现有的信任和信誉模型,它的主要区别在于:(1)提出了一种模型整合了五种不同的信任和信誉:直接信任、见证人信誉、基于角色的信任、认证信誉、陌生人信誉;(2)引入忠诚度的概念改进了信任值计算算法,对恶意agent起到了限制作用。(3)为了鼓励agent主动提供真实信息,模型中引入了激励机制:通过在系统中传播agent的评价值,对提供真实信息的agent进行奖励,对恶意agent进行惩罚;模拟实验数据表明:本模型在agent的长期交互中信任更精确,合作更稳定。