一种新的混合粒子群算法求解置换流水车间调度问题

来源 :计算机应用研究 | 被引量 : 0次 | 上传用户:zmzsyx
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
针对粒子群算法易早熟的缺点,提出了一种结合迭代贪婪(IG)算法的混合粒子群算法。算法通过连续几代粒子个体极值和全局极值的变化判断粒子的状态,在发现粒子出现停滞或者粒子群出现早熟后,及时利用IG算法的毁坏操作和构造操作对停滞粒子和全局最优粒子进行变异,变异后利用模拟退火思想概率接收新值。全局最优粒子的改变会引导粒子跳出局部极值的约束,增加粒子的多样性,从而克服粒子群的早熟现象。同时,为了使算法能更快找到或逼近最优解,采用了循环迭代策略,在阶段优化结果的基础上,周而复始循环迭代进行求解。将提出的混合粒子
其他文献
传统的TF* PDF方法提取的关键短语可精确地描述话题并进行新闻报道的追踪,但存在误将噪声数据识别为关键短语的情况。提出了一种基于位置权重TF* PDF的两段式关键短语提取方法滤除噪声数据。该方法将传统的TF* PDF算法与位置权重相结合,计算词汇与短语的权重,获取候选关键短语列表,关键短语的脉冲值则用于过滤列表中的噪声。通过关键短语识别进程根据位置信息、频率信息等将热点词汇组合成短语。TF* P
传统的文献聚类算法根据分析文献关键词进行,忽视了文献之间的引用关系,导致了主题漂移和搜索精度不高的问题。针对引文网络中的聚类问题,受到优先情节和增长定律的启发,提出了一种基于角色划分的分层次的文献软聚类算法。首先根据文献之间的引用关系构造引用矩阵,进行结构挖掘;然后根据结构挖掘的结果为每一聚类构造聚类主题,进而进行关键词分析,精化聚类。实验结果表明,该算法能够有效地提高搜索精度和效率。
提出了一种文化粒子群算法用于求解置换流水车间调度问题中的最小化最大完成时间。算法设置了群体空间和信念空间两类独立空间,群体空间采用自适应粒子群算法完成进化,信念空间通过更新函数来进行演化。算法中群体空间的粒子群不但通过跟踪个体极值和全局极值来更新自己,实现群体演化,而且通过不断与信念空间中的优秀个体交互,加快群体的收敛速度。该算法在不同规模的问题实例上与其他几个具有代表性的算法的比较结果表明,该算
为了在多核处理器上充分利用多核资源以提升挖掘性能,提出了一种动态与静态任务分配机制相结合的基于多核的并行序列模式挖掘算法。该算法采用数据并行与任务并行相结合的策略,在各处理器核生成局部序列模式后,再与其他处理器核协同,以最终获得所有的全局序列模式。算法通过并行局部归约技术消除了局部序列的重复生成与计算,并可结合静态与动态任务分配机制解决处理器的负载不均衡问题。理论分析和实验都证实了该算法可有效利用
为保证列车测速定位软件的安全性,研究了测速定位原理,提出一种新的测速定位模型,在此基础上引入SCADE开发方式,建立测速定位软件模型,并利用SCADE的形式化验证技术保证软件模型的安全性。最后将安全软件导入QNX系统平台测试运行,通过QNX技术分析与实践表明软件完全满足测速定位的技术和安全性要求。
为实现灰度共生矩阵(GLCM)多尺度、多方向的纹理特征提取,提出了一种结合非下采样轮廓变换(NSCT)和GLCM的纹理特征提取方法。先用NSCT对合成孔径雷达(SAR)图像进行多尺度、多方向分解;再对得到的子带图像使用GLCM提取灰度共生量;然后对提取的灰度共生量进行相关性分析,去除冗余特征量,并将其与灰度特征构成多特征矢量;最后,充分利用支持向量机(SVM)在小样本数据库和泛化能力方面的优势,由
为了利用多处理平台的并行处理能力,提高约束求解中相容检查的效率,提出了一种新的基于集中式存储的全局约束并行相容模型。利用动态分配约束条件的方法解决负载均衡问题;通过对变量域的集中式管理,保证了冲突检测的及时性;利用变量域剪枝单调性的特点,实现了异步相容检查,提高了多节点间相容检查的并行程度。最后,通过实验验证并讨论了模型的优势和适用范围。
针对基于VSM(vector space model)的文本聚类算法忽略了词之间的语义信息和各维度之间的关系,导致文本的相似度计算不够精确,提出了一种基于语义相似度的群智能文本聚类的新方法。该方法融合了模拟退火算法的全局搜索和蚁群算法的正反馈能力。其思路是,首先从语义上分析文本,利用K-均值算法进行文本聚类,再根据K-均值算法的结果,使用蚁群和模拟退火算法进行调整聚类。测试结果表明这种算法能够提高
在利用视觉技术进行药品检测的过程中,药品相互粘连的图像会给后续的特征提取工作带来很大的困难,针对此问题提出了一种基于凹点方向线的粘连图像分割方法。首先依据颜色距离对药品图像进行预分割;然后对不同颜色的预分割图像进行4链码运算,寻找所有的凹点,并对所有的凹点进行标记;最后根据每一个凹点得到方向线,根据方向线进行配对,将配对凹点的连线作为分割线。实验结果表明,该算法具备良好的准确性和通用性。
由于EB(extreme binning)使用文件的最小块签名作为文件的特征,它不适合处理主要包括小文件的数据负载,会导致较差的重复数据删除率。为了改进EB,提出了相似索引。它把相似哈希作为文件的特征,是一种适用于以小文件为主的数据负载的重复数据删除的二级索引。实验结果表明,相似索引的重复数据删除率比EB高24.8%;相似索引的内存使用量仅仅是EB的0.265%。与EB相比,相似索引需要更少的存储