论文部分内容阅读
Agent和多Agent系统是人工智能和计算机科学领域中重要的研究方向。信任的概念来自于人类社会,是人类解决复杂问题的有效机制之一,受到多个研究领域的关注。将信任机制引入到多Agent系统的合作求解中,帮助Agent解决交互对象的选择问题,是一个很有意义的研究课题,也具有一定的应用价值。Agent是计算世界中交互实体的抽象,多Agent系统中信任的研究应当承担起发现计算实体之间信任的一般规律的任务,应该注重建立分布的Agent自主进行信任评价的一般模型。本论文研究了多Agent系统中信任和信誉模型中存在的推荐信息不准确、异构模型互操作困难等问题的解决办法,并探讨了信任机制的应用方法,主要取得了下面的研究成果:1.推荐信息不准确问题可能是由于证人主观故意撒谎,但也有可能是因为与证人无关的其他因素造成的。在现有的信誉系统中,常常将不准确信息都归咎于证人,这并不利于选择出好的目标。在多Agent系统环境的一般模型中,目标Agent的操作半径代表了与证人无关的信息不准确因素,据此提出评价者Agent从自己的角度修改证人Agent的报告的方法,以及在交互后学习到更加准确的目标Agent的操作半径的自适应算法,从而保证评价者Agent在交互中获得更高的收益。将算法用于FIRE信任模型后的实验表明,无论在静态环境,还是在动态环境,均可使评价者Agent选择出更好的交互目标,在交互中获得更高的收益。2.灰色系统理论在贫信息、不确定性问题的求解中具有优势,分布式多Agent系统具有明显的灰色特征。在建立的Gtrust模型中,设计了对证人推荐行为进行评定的方法,用灰色序列生成技术填补数据空穴,用灰色定权聚类判定对证人的信任,指导评价者Agent合理使用来自证人的推荐,克服证人提供的不准确推荐信息带来的负面影响,有效避免了包括故意欺骗在内的信息不准确因素的影响。GTrust在复杂的环境中以实际交互结果为依据的策略,是一种切合实际的选择。通过仿真实验表明,GTrust可以帮助评价者取得好的交互结果。3.在信誉的功能本体(FORe)和已有的信誉模型基础上,设计了一个用于支持异构信誉模型互操作的平台。形式化定义了平台中的评定、推荐等基本元素,使该平台能支持现有的信誉模型;区分了目标的信誉与证人的信誉,明确提出四种形式的推荐信息。这项工作将对解决多Agent系统中异构信誉模型互操作问题、开发有信誉机制的多Agent的应用系统、开展信誉模型性能测试等方面起到作用。4.目前科技文献检索和管理软件中存在缺乏合作、文献来源单一、个性化支持不足等问题。开发了一个基于Agent的文献推荐系统ALRS,以支持研究人员在搜索和共享文献过程中开展合作。在ALRS中,每名科研人员对应一个Agent,既作为检索者,又兼当推荐者。利用精心设计的交互协议和决策方法,使Agent能够选择出合适的推荐者提供文献。在交互双方的选择环节,基于已经积累的经验,引入信任度量提高了决策的效果。