率领胁制信息系统软件[1](以下简称指控系统)在国防与队列信息化建设中起到枢纽作用. 该类系统通过全面采集分析态势信息、动态管理分拨作战资源, 为率领东谈主员提供对东谈主力、物理、信息等资源的快速整合智商, 以扶持率领东谈主员实施最合适的战场决策. 刻下, 指控系统的运行环境极易发生增多新的打算节点、枢纽传输链路失效、降效和赛博袭击等环境变化. 而且, 指控系统面对的任务需求具有动态性和阶段性, 在系统运行过程中会随时产生非预期的任务变更需求. 这些来自运行环境的变化与任务的变更需求, 如果未能被实时合理地反映chatgpt 文爱, 严重时可导致系统举座失效. 因此, 指控系统亟需具备一种自稳妥智商, 使系统可通过调整自身组织结构或行动以稳妥动态变化的环境与作战任务.
为竣事该自稳妥智商, 好意思军提议了“OODA” (observe-orient-decide-act)表面, 建立了包括“不雅察、判断、决策和行动”4个要道的自稳妥过程, 以竣事系统对环境变化和任务变更需求的实时反映[2]. 其中, 不雅察要道是对系统运行环境或需求变更进行感知或不雅察, 从中征集信息和数据; 判断要道是对刻下的系统现象进行分析和评估, 并处理联系的信息和数据; 决策要道是凭证运行环境信息和刻下系统现象制定调整策略, 并取舍合适的策略; 行动要道则是凭证所选策略实施对系统的调整. 由此可见, 决策要道产生的调整策略最终决定了系统若何进行自稳妥. 该要道是决定能否顺利调整指控系统以稳妥刻下环境或变更任务的枢纽, 在指控领域的决策要道存在如下两方面紧要的智商需求.
领先, 由于指控系统运行在高动态环境下, 环境变化频繁发生, 回去拢时刻可能同期存在多个环境变化. 接洽到指控系统自己是一个具有复杂运行机理的物理系统, 凭证现实天下的步伐与实践告诫, 归拢时刻发生的变化可能存在一定的关联关系. 这种关联关系会导致每个变化各自的调整策略极可能存在潜在冲突[3]. 举例, 为反映同期发生的多个变化, 系统将采纳多个调整策略以不同口头调整归拢个作战资源. 为惩办上述问题, 则需自稳妥决策方法梗概在具有冲突关系的变化间进行衡量, 产生折中决议.
其次, 由于系统运行环境顷刻间万变且指控系统里面现象和行动空间爆炸, 在系统运行前险些无法穷举通盘可能的调整策略, 也无法预策略略的实践灵验性. 这种策略的不细目性及效果的不可预计性, 导致自稳妥决策方法仅凭预定策略无法正确应酬已知变化, 更无法处理未有联系策略的未知变化. 因此, 自稳妥决策方法必须具备凭证变化情况, 动态产生调整策略的在线决策智商.
可是, 现存指控系统中聘任的自稳妥决策方法并弗成完好意思粗野上述两方面的智商需求. 举例, 基于功令/策略的方法, 需在系统运行前预界说自稳妥策略, 无法支握在线决策. 基于方针、效能函数和优化函数的决策方法, 每次仅处理单一变化, 容易产生出彼此冲突的自稳妥策略. 诚然也存在部分研究通过界说变化间的权重关系产生折中策略, 但由于变化间的优先关系在系统运行过程中会发生演化, 因此该类研究无法保证其长久灵验[4]. 而通用软件的自稳妥决策方法在应用于指控领域时, 也存在一定的不适用性. 举例, 基于马尔科夫链、贝叶斯采集等自稳妥决策方法虽具有应酬变化不细目性的智商, 但该类方法需事前建立系统现象移动模子, 这对指控系统而言复杂性较高. 而基于强化学习等决策方法需凭证环境反馈反复试错产生最优策略, 不适用于指控系统这种高安全要求的应用领域.
本文拟聘任基于搜索的软件工程(search-based software engineering, SBSE)表面, 将自稳妥决策视作在调整策略组成的搜索空间中, 评价并取舍最优策略的搜索优化问题, 聘任搜索优化方法建立一种粗野在线衡量决策需求的自稳妥决策方法, 从而灵验应酬环境变化与任务需求变更. 该类决策方法可聘任多方针搜索优化技艺, 在不界说变化优先级的情况下, 竣事对多种变化的衡量处理, 并可动态凭证非预期变化情况在线搜索产生出相应的调整策略.
可是, 在应用该方法具体惩办指控系统的自稳妥决策问题时, 仍存在效率进步与策略取舍等实践应用问题. 领先, 该方法的打算效率受搜索空间界限影响. 而指控系统对自稳妥过程的实时性要求较高. 因此, 必须保险该方法梗概快速产生决策驱逐. 其次, 该类方法针对多方针进行衡量决策时, 会产生一个最优策略集聚, 即前沿. 前沿里面的策略已无法再凭证优化方针区分优劣性. 可是, 指控系统必须依据惟一的调整策略对系统结构、行动或参数竣事准确调整. 因此, 必须保证该方法可从前沿中取舍出当下最适用策略.
因此, 本文提议了一种基于并行搜索优化的指控系统自稳妥决策方法(self-adaptation decision-making based on parallel search optimization for command and control information system), 通过将自稳妥决策问题鼎新为搜索优化问题并想象了多方针优化算法以粗野指控系统在线决策及决策衡量的需求, 同期为进步决策效率想象了基于后优化表面的策略取舍方法, 梗概有针对性的取舍当下最适用策略. 具体包括以下要点:
1) 自稳妥决策问题建模. 本文分析自稳妥决策问题特征, 界说了该类问题的自稳妥策略、策略空间、方针函数、稳妥度函数与经管函数, 将自稳妥决策问题建模为搜索优化问题. 本文想象的自稳妥决策建模方法不错凭证指控系统特征, 快速建模特有的自稳妥决策问题模子, 将自稳妥决策问题鼎新为搜索优化问题, 针对指控系统环境变化动态生成策略空间.
2) 基于并行的多方针优化算法. 本文结合并行遗传算法、粒子群算法等表面, 建立了基于遗传粒子群(genetic algorithm and particle swarm optimization, GAPSO) 的并行自稳妥决策方法, 并通过算法的并行化想象保险算法可快速产生调整策略. 通过此方法, 不仅梗概针对指控系统复杂运行环境下的多个环境变化在线产生最优策略, 幸免了由于仅接洽单个变化引起的策略冲突. 此外, 本文通过种群切割、引入移动算子等方法竣事了算法的并行化想象进步了决策效率.
3) 基于后优化表面的策略取舍方法. 本文基于后优化表面, 针对不同决策问题在决策偏好、时效性经管等方面的不同特征, 建立了基于和洽性分析法 (elimination et choice translating reality, ELECTRE)的多方针排序法, 梗概有针对性地取舍当下最适用策略, 从而携带指控系统竣事自稳妥调整.
本文第1节先容了联系布景学问. 第2节给出了本文的研究框架, 说明了各研究职责之间的关系. 第3节则分别先容了本文的中枢研究职责, 即自稳妥决策问题建模、基于并行GAPSO的自稳妥决策方法、及基于ELECTRE的多方针排序法. 在第4节中, 本文分别聘任了指控系统典型自稳妥场景和大界限模拟场景对本文提议的方法及联系研究方法进行了对比实验, 并对实验驱逐进行了分析探讨. 第5节分析了联系职责. 第6节回来了本文职责.
1 布景学问本节先容基于搜索的自稳妥决策方法所聘任的表面技艺, 即基于搜索的软件工程、并行遗传算法与后优化表面.
1.1 基于搜索的软件工程基于搜索的软件工程的想想是通过将传统软件工程中的问题映射为基于搜索的优化问题, 通过使用启发式搜索算法, 在可行解空间中找到最优解的方法[5]. 比拟启发式搜索算法, 当代启发式搜索算法界说智能搜索策略, 增强启发式算法搜索性能, 以一种智能的口头搜索问题的最优解或者近似最优解.
传统的软件工程的想想是通过针对问题想象惩办算法以求得最优解, 基于搜索的软件工程是通过在可行解空间中针对问题构造限制函数以指引搜索处所, 经屡次迭代得到最优解. 因此, 基于搜索的软件工程惩办问题一般需要粗野两个要求.
1)想象出问题惩办决议抒发口头(solution representation): 对所需惩办问题的驱逐, 必须能通过相应的编码暗意出来, 以组成搜索算法中的染色体, 进行相应的运算.
直播勾引2)想象出相应的稳妥度函数(fitness function ): 对解进行评价, 比较不同解之间的优劣. 在搜索解空间内, 稳妥度函数不错指引搜索的处所, 寻找粗野要求的区域.
由于基于搜索的软件工程惩办问题的方法主要由以上两步组成, 针对任何问题, 只须梗概想象出问题解的暗意口头和稳妥度函数, 就不错应用该方法, 因此具有很强的普适性, 不错便捷地应用到不同领域问题上. 另外, 针对归拢问题的不同界限, 基于搜索的方法求解口头是不变的, 因此容易膨胀到大界限的工程问题求解上去. 基于搜索的软件工程方法幸免了传统方法的一些不及, 能在尽可能贬抑资本的前提下尽可能高效地自动化完成软件开发任务, 是软件工程领域中一种高效实用的新方法.
本文所要惩办的问题为自稳妥决策问题, 自稳妥决策问题具体是指在系统面对一系列难以应酬的环境变化时, 需要系统产生相应策略以自稳妥的调整行动和现象, 在这个过程中际遇的策略生成、策略衡量取舍等一系列问题即为自稳妥决策问题. 依据上述的基于搜索的软件工程方法, 本文想象了将自稳妥决策问题映射为最优化问题的方法以竣事获取自稳妥决策问题的最优解. 由于最优化问题是指通过取舍一组决策变量, 在粗野一系列接洽的驱逐要求(经管)下, 使想象方针函数达到最优值. 因此, 在建模过程中不异需要明确自稳妥问题中的决策变量、方针函数以及经管要求等内容. 具体含义如下:
1) 决策变量是指影响方针函极值的变量, 亦然优化算法搜索的对象.
2) 方针函数是指最优化问题优化的方针.
3) 经管要求是指结已然策变量取值的要求, 在数学形色中被称为经管函数, 依据驱逐要求不同可分为等式经管和不等式两种.
1.2 并行遗传算法遗传算法(genetic algorithm, GA)[6]实施过程同动物种群的遗传机制访佛, 其聘任交叉、变异操作来达到模拟动物种群进化中个体的基因组改革的驱逐. 聘任“倚强凌弱”的律例, 先保留较优的个体形成下一代种群, 最终通过迭代使种群现象处于最优或近似最优现象. 可是, 跟竟然践问题的复杂性和界限呈现出不休增多的趋势, 若何进步GA的求解速率以粗野求解实践问题的需求已成为一个极端枢纽的问题.
跟着打算机打算智商的进步和大界限并行打算框架的发展, 诈欺集群的打算智商进步GA的运行速率的想法促进了并行遗传算法(parallel genetic algorithm, PGA)[7]的出生. PGA是指对GA进行并行化后形成一类进化算法, 适合惩办大型复杂问题. 借助多种群并行进化, 使得PGA在幸免GA堕入局部敛迹问题的同期进步了种群的各种性, 而且全局搜索智商也有了较大进步. GA并行化的想象主要在GA算法过程及GA结构进行更正, 算法过程由串行改为并行, 其结构也更正形成并行群体模子以稳妥并行过程, 以支握多种群并行进化.
当今PGA的模子不错分为主从式、粗粒度、细粒度和搀和模子共4大类型. 主从式模子是指取舍、交叉和变异等全局操作由主节点串行进行, 而打算由各从节点机并行实施; 粗粒度模子是稳妥性最强、应用最广的遗传算法并行模子, 其旨趣是将种群差异至多个节点并行处理; 细粒度模子比拟于粗粒度模子要求子群体的差异要愈加微弱, 瞎想现象是每个节点机只好一个个体; 搀和模子是指将前3种模子搀和形成模子结构. 四种模子中主从模子通讯代价过高, 细粒度模子差异过于细密需要占用多数打算节点, 搀和模子想象较为复杂, 而粗粒度模子需要的打算节点较少且各节点能孤苦完成遗传进化. 因此, 本文选用了粗粒度模子四肢建立并行搜索方法的基础模子. 粗粒度模子具体是通过诈欺了GA算法结构在种群层的并行性, 竣事多个子种群的并行进化. 假定并行打算集群入网算节点的个数为n, 该模子就将GA的动手种群差异为n个子种群. 每个子种群将被分拨到一个打算节点中, 孤苦聘任GA进走运算并不休迭代. 在迭代过程中, 各个打算节点的子种群将聘任移动操作依期进行种群移动, 可丰富种群的各种性并为种群引入新的优良个体, 以幸免算法产生早熟敛迹问题. 其中, 移动操作是该类模子为GA加入的一种新进化操作. 该操作章程了种群进行移动周期、个体数量、移动策略和拓扑信息等.
1.3 后优化表面圆善的基于搜索的自稳妥决策方法除了通过多方针优化方法产生的前沿策略集聚之外, 还需要惩办后优化(POST-optimization)问题[8], 即放松前沿集聚界限, 从中取舍出最优的解. 后优化问题主要针对优化算法的打算驱逐进行探索, 主要分为两种类型. 第1类后优化问题是细目优化算法参数(即right-hand-side value和资本系数等)的取值范围, 在对算法的解不会形成显耀影响的前提下, 扰动最优解, 以探索是否梗概得到新的最优解, 即使新的最优解超出可行解空间范围也不错经受. 第2类后优化问题则是放松多方针优化算法得到前沿集聚界限, 从中取舍出最优的解.
而由多方针函数优化算法产生的前沿集聚与基于搜索的自稳妥决策方法产生的最优决议集聚高度相符. 因此, “从决议集聚结取舍惟一策略”的问题本色上与第2类后优化问题“从前沿中取舍最优解”一致. 因此, 本文将接洽聘任与第2种后优化问题联系的表面技艺建立本文的决议取舍机制. 为便捷阐发, 后文说起“后优化问题”时, 仅非常指代“第2类后优化问题”.
当今, 凭证现存文件的分析, 针对后优化问题的惩办方法, 即后优化方法, 可被分为以下4种. 第1种是偏好排序法, 即通过对前沿中的解凭证设定的偏好进行排序, 从而得到排序后的最优解[9]. 该类方法的实施难点就在于若何界说适合的排序方法. 第2种图像法通过对前沿在值空间中的空间形态进行分析[10], 细目图像拐点(Knee), 并觉得处在拐点上的解一般是在多个方针间得到最好衡量的解. 对于多方针优化问题, 前沿为超平面, 图像法需发掘其凸出或凹下部分, 时刻效率较低. 第3种聚类算法通过对前沿中的解进行聚类[11], 形成多少簇后, 从簇中取具有代表性的解为最优解, 但也需惩办时刻效率问题. 前3种方法惩办后优化问题的时机齐在于优化问题求解完成, 形成前沿后才动手的. 而第4种交互式方法, 则是在生成前沿过程中, 就不休与用户交流, 得到用户偏好以携带前沿生成, 该类方法不适合于实时性要求高的场景应用.
因此, 本文拟通过ELECTRE (elimination et choice translating reality) 方法建立一种多方针排序方法以从多个生成策略种取舍出惟一策略, 该方法与其他依赖于偏好排序的方法不同, ELECTRE方法可接洽多种方针幸免了完好意思按照偏好形成的风险, 比拟于图像方法和聚类算法ELECTRE较为浅薄梗概快速竣事策略取舍的任务. ELECTRE 方法是由 Bernard Roy 在 1965年提议的一种多模范决策分析(multi-criteria decision analysis, MCDA)方法. 该方法是通过建立决议间的优先次序关系从而竣事决议排序[12]. 通过和洽性锻练和非和洽性锻练来比较不同决议x和y的优劣性. 其中, 领先通过和洽性锻练诠释x至少与y一样好, 然后通过非谐性锻练诠释上述不雅点莫得浓烈灵验的反对情理, 倘若决议x与y同期粗野了这两项考证, 则觉得决议x优于决议y.
2 研究框架本文的研究问题包括若何通过搜索优化技艺建立自稳妥决策方法, 以及若何保证该决策方法可在实践指控系统中应用. 因此, 本文建立了如图1所示的基于搜索的自稳妥决策框架, 分别惩办指控系统自稳妥过程中的“在线衡量决策问题”, 及在实践应用时凸显出的“效率保险问题”和“策略择优问题”.
Fig. 1 Search based adaptive decision framework 图 1 基于搜索的自稳妥决策框架(1) 自稳妥决策问题建模与搜索算法想象, 惩办在线衡量决策问题
本文领先分析了自稳妥决策问题的本色特征并与最优化问题进行了类比, 随后界说了自稳妥决策问题的决策变量、方针函数和经管函数, 将自稳妥决策问题建模为最优化问题. 在此基础上, 本文领先聘任全局搜索智商强的进化算法对空间进行初步搜索. 在经过屡次迭代后, 本文挑选出精英个体, 并进一步聘任敛迹智商强的粒子群算法竣事局部深入搜索, 得到最终驱逐.
(2) 基于并行GAPSO的自稳妥决策方法, 惩办效率保险问题
在本文建立的决策算法中, 前期聘任的进化算法承担了对策略空间的全局搜索任务. 因此, 进步该算法效率将有助于保险举座决策效率. 凭证并行遗传算法想想, 本文建立了基于并行GAPSO (genetic algorithm and particle swarm optimization) 的自稳妥决策方法, 聘任移动算子差异全局搜索空间并对多个种群进行并行搜索, 达到加速算法敛迹目的. 而且, 本文聘任Spark并行打算框架和多线程技艺两种口头竣事该算法, 以对比不同竣事口头对算法时刻效率的影响.
(3) 基于ELECTRE的多方针排序法, 惩办策略择优问题
本文基于排序法中的ELECTRE方法建立了多方针排序法, 以从搜索驱逐中取舍出惟一策略. 在想象排序方针时, 本文除了量化建模率领员偏好外, 将充分接洽不同战场环境下的决策需求, 建立了作战偏好、资源态势、任务时效性等指控系统护理的特殊方针, 通过开展和洽性与非和洽性锻练, 渐渐精化搜索驱逐, 达到取舍最优策略的方针.
3 基于并行搜索优化的自稳妥决策方法 3.1 自稳妥决策问题建模凭证上文将自稳妥问题映射为最优化问题的基本表面, 本节对其具体方法进行形色. 在自稳妥问题中影响其调整驱逐的变量为自稳妥策略, 因此, 本文将自稳妥策略四肢自稳妥问题的决策变量. 在指控系统中自稳妥策略包含了多数系统信息及系统行动, 为更好的形色指控系统的自稳妥策略本文将自稳妥策略的组成部分界说为可变点(variable point, vp), 即在自稳妥调整过程中对调整驱逐不错产生影响的可调整对象, 这些可调整对象不仅包含指控系统资源(如打算节点CPU、内存的诈欺率等)、指控系统的组织结构(如组成作战单元数量、部署位置等)、组成单元的行动或参数(如系统组成单元的功能等), 同期也包括指控系统运行中可调整的属性(如采集带宽等).
由于可变点的取值情况不同, 因此可变点可被差异为突破可变点、联结可变点和量化可变点.
• 突破可变点是指可变的取值为突破数值. 如漫衍式打算节点只不错突破数值形色.
• 联结可变点是指可变点的取值时联结的. 举例内存诈欺率不错用[0, 100%]的联结数值进行形色.
• 量化可变点是指可变点中有些莫得具体的数字化取值, 因此需要对这些可变点进行数字量化. 举例不错将3种不同的系统行动以{1, 2, 3}这3个数值代表, 竣事可变点量化.
由于决策变量是指自稳妥策略, 因此将这些可变点组合起来就形成了自稳妥策略集聚即决策变量取值, 在基于搜索的软件工程中也被称为解空间. 如图2所示为决策变量形成组合组成的解空间, 其中每个可变点齐是解空间中的一条坐标轴, 解空间中的一个点暗意可变点的一个组合.
Fig. 2 Feasible solution space of adaptive decision problem 图 2 自稳妥决策问题的可行解空间上述口头建立的解空间是通过在线分析可变点(即系统现象及行动)产生的, 不存在预定的关系, 同期由于解空间中的每个点均是孤苦的, 因此不同策略之间不存在冲突. 这种口头不错灵验幸免策略冲突, 动态取舍出最优的自稳妥策略以竣事在线决策.
(1)方针函数
在指控系统中自稳妥决策问题的优化方针即是使需要自稳妥调整的系统梗概稳妥软件变化, 以达到生机的系统方针. 在本文中软件变化具体是指由于环境变化和战场需求变更等因素引起的系统里面变化, 这些变化导致了系统无法正常踏实运行. 本文以生机调整后踏实的系统方针四肢方针函数, 并将其分为径直联系函数和波折联系函数两部分.
领先, 需要明确在软件变化发生后生机的系统方针. 系统方针不错由两种口头得到. 一个是通过指控领域大众告诫获取; 另一个是通过屡次模拟战场环境变化和需求变更等场景进行屡次实验, 不雅察受到影响的系统资源和行动, 受到影响的部分即为与此变化径直联系的方针函数. 举例, 在“负载平衡”这个场景下可能会发生“节点负载超载”变化, 为获取这个变化的径直方针函数, 需要重叠进行实验, 通过分析系统运行日记不错发现“系统反映时刻”受到了影响. 因此“反映时刻”即是该变化的一个径直联系方针函数.
其次, 由于多种环境变化和需求之间可能存在接洽. 因此, 弗成浅薄接洽径直联系的方针函数, 通过对多种软件变化之间进行分析, 可明确联系的可变点信息. 受到这些可变点取值变化影响的系统方针, 则称为该变化的波折联系方针函数. 通过在自稳妥决策问题中引入波折方针函数, 不错在一定进程上幸免由于软件变化之间的接洽引起的反复调整等一系列系统回荡气候. 举例, 在“负载平衡”场景下, 与“节点负载超载”变化联系的可变点是节点的任务分拨量, 同期这个可变点影响着系统的运行支拨. 诚然系统运行支拨暂时并未受到“节点负载超载”的影响, 但从永恒的角度上, 将其纳入波折方针函数可幸免由于调整不当引起的“系统运行支拨过大”等软件变化.
由于指控系统的运行环境复杂, 归拢时刻可能同期存在多个环境变化和任务需求变更的发生, 自稳妥决策需要同期接洽多种变化. 因此, 需要将这些变化的径直联系方针函数和波折联系方针函数合并去重, 四肢自稳妥决策的举座方针函数且这些方针函数之间无须界说任何的优先关系, 并将通过量化公式的体式界说. 具体公式内容需要凭证不同系统具体的决策问题需要而建立.
(2)经管函数
在自稳妥决策问题中, 经管函数仍旧是传统优化问题中的等式或不等式经管体式, 主要用于对可变点的取值范围进行驱逐, 但其产生的起原则包括如下两种.
• 可变点经管主要源于自稳妥调整系统运行时险峻文对可变点取值的特殊要求. 举例, “集群打算节点数量”这个可变点的取值范围自己是明确的, 但如果系统管理东谈主员临时章程了打算节点的可用数量, 则这个可变点的取值就将受到影响.
• 功能经管则源于用户对系统的功能生机. 自稳妥策略不仅要保证决策问题中方针函数的最优, 也要保证在基于该策略调整系统后, 系统必须对外提供的作事和作事水平弗成受到影响. 也即是说, 该类经管函数主要用于保证可变点的取值不会影响系统为用户提供必备的对外功能.
3.2 基于并行GAPSO的自稳妥决策方法凭证上一节所述方法本文竣事了在指控系统下的自稳妥决策问题建模. 若何从模子细目的可行解空间, 也即是可行自稳妥策略空间中取舍最优自稳妥策略是本节将解答的问题.
当今, 工业界聘任最多的多方针优化算法为遗传算法(举例, nondominated sorting genetic algorithm-II, NSGA-II)与群体智能算法(举例, multi-objective particle swarm optimization, MOPSO)[13]. 遗传算法具有全局搜索、突破联结空间均可、举座移动、庸俗搜索等上风, 但也存在敛迹速率慢及堕入局部最优而早熟等问题. 而群体智能算法因为结构想象浅薄, 适合现实场景使用, 但其也存在与遗传算法交流的早熟问题, 且搜索精度较低、后期迭代速率慢等问题. 可是, 指控系统的自稳妥决策问题具有较强的实时性, 其决策效率是领先需要保证的要素, 如果弗成快速产生决策驱逐, 决策过程中系统和运行环境极有可能不息变化, 那么所取舍的调整决议极有可能已不适合新的环境.
因此, 本文提议了一种基于遗传算法的并行遗传粒子群(genetic algorithm and particle swarm optimization, GAPSO)算法以搜索最优自稳妥策略并加速演化策略的生成速率, 进步搜索效率. 该算法主要由两部分组成, 分别是用于算法前期迭代的多方针优化算法NSGA-II, 用于算法后期精准搜索的NSGA-II算法. NSGA-II算法时刻支拨较小, 故用于竣事算法前期对策略空间的全面躲避搜索, 幸免算法堕入局部最优. 因为可行自稳妥策略空间中的点是突破漫衍的, 是以在算法实施后期, 聘任突破的MOPSO算法以对局部精英种群进行深入搜索, 缩小算法敛迹时刻. 此外, 为进一步提高搜索效率, 本文结合粗粒度并行遗传算法想想, 通过将大种群切分为多少子种群竣事并行进化, 并通过引入移动算子竣事子种群间个体移动, 保险各子种群的各种性. 算法过程如算法1所示.
算法1. GAPSO算法过程.
Input: 方针函数、经管函数、决策变量及算法参数, 移动代数T.
Output: 前沿集聚.
1. NSGA-II动手化. 在该门径中得到算法参数, 产生算法运算所需要的动手群体.
2. 切分动手种群为n个子种群.
3. 对于每一个子种群n, 在得到动手种群后, 凭证稳妥度函数打算每个个体的稳妥度值. 对种群进行非驾驭排序, 拥堵度打算.
4. 春联种群中的个体进行交叉、变异操作, 打算个体的稳妥度值.
5. 由3, 4两步的中间种群组合得到下一代种群, 并对个体按照稳妥度值进行排序, 保留固定种群大少量目个体, 撤消过剩个体.
6. 获取刻下迭代次数. 若迭代次数为T的倍数, 则聘任移动算子进行各个子种群之间的个体移动; 若非T的倍数, 则转向门径7.
7. 判断是否达到NSGA-II的拒绝要求, 若粗野, 则转门径8; 不然, 转门径3.
8. 细目种群大小、维度、每个维度上的取值及微粒的动手位置和动手速率, 微粒在每个维度上位置和速率的险峻界限值.
9. 畴昔沿策略为动手粒子群, 按照稳妥度排序及拥堵度排序驱逐撤消过剩微粒.
10. 打算每一个微粒的稳妥度值, 进行非驾驭排序, 记载个体最优位置Pbest(一组)和群体最优位置Gbest(一组), 将Gbest保存在最优集聚结(存档), 更新微粒的位置与速率.
11. 判断迭代次数, 决定是否末端算法, 若达到算法拒绝要求, 则将最优集聚进行非驾驭排序, 输出前沿集聚
如算法1所示, 并行GAPSO算法过程如下.
(1) 动手化. 在该门径中细目NSGA-II算法和MOPSO算法实施所需要的群体特征. 主要为种群界限、维度、各维度上取值经管、粒子的动手化信息及粒子在各维度上位置和速率的取值经管.chatgpt 文爱
(2) 子种群进化. 将动手种群差异为多少子种群. 每个子种群凭证稳妥度函数打算每个个体的稳妥度值. 对个体进行非驾驭排序, 拥堵度打算, 并进行交叉、变异操作, 更新个体的稳妥度值. 不同子种群通过移动算子交换上风个体, 不休进化迭代.
(3) 深度寻优. 达到NSGA-II的拒绝要求后, 细目种群大小、维度、每个维度上的取值及微粒的动手位置和动手速率, 微粒在每个维度上位置和速率的险峻界限值畴昔沿策略为动手粒子群, 按照稳妥度排序及拥堵度排序驱逐撤消过剩微粒. 打算每一个微粒的稳妥度值, 进行非驾驭排序, 打算并记载每个个体的最优位置Pbest和群体最优位置Gbest, 将Gbest保存在最优集聚结(存档), 并取舍惟一的Gbest, 随后更新每个微粒的速率.
(4) 算法拒绝. 判断迭代次数, 决定是否末端算法, 若达到算法拒绝要求, 则将最优集聚进行非驾驭排序, 输出前沿.
结合上述算法过程, 给出本文GAPSO算法想象细节, 如表1所示, 对号暗意相应算法需接洽该想象内容.
并行GAPSO算法想象存在着一定的挑战和难点. 领先, 由于遗传算法一般聘任二进制编码方法对个体进行编码该编码口头易于竣事变异等进化操作. 可是, 自稳妥决策问题的决策变量取值被突破化了, 如果聘任二进制编码, 则容易产生无效取值, 且由于决策变量的取值随时可能会发生变化, 因此针对自稳妥决策变量的编码口头必须支握决策变量取值的活泼调整. 其次, 本文将在算法前期迭代将切分出多少子种群竣事并行进化, 可是如果种群切分过大会导致敛迹效率过低, 种群切分过小又会导致堕入局部最优解, 需要接洽在驱逐质地和敛迹速率间寻找平衡, 不错经受的时刻范围内尽可能的提供较优的驱逐. 为惩办上述问题, 在算法中进行了联系的想象如表1所示, 部天职容细节如下所示.
Table 1 Algorithm detail design 表 1 算法细节想象(1)编码方法
正在运行的系统中, 决策变量取值发生变化的可能性较大. 因此, 自稳妥决策变量在编码层面需要对变量取值的活泼调整提供支握. 本文非常提议了一种数组编码方法, 对决策变量, 即GA与PSO算法中的个体进行编码. 如图3所示, 决策变量中每一个可变点的通盘取值被映射到一个数组. 数组的每一项对应一个取值. 决策变量的编码长度取决于自稳妥决策实践问题中的可变点数量.
(2)群体最优取舍
对于MOPSO, 本文使用瞎想解法(technique for order preference by similarity to an ideal Solution, TOPSIS)用于群体最优的录取. 该方法在首次迭代时会预摘抄取每个方针函数的最优极值和最劣极值, 并以此四肢瞎想最优值和瞎想最劣值. 该方法通过打算各个个体最优与瞎想最优值和瞎想最劣值之间的距离, 将离瞎想最优值最近且离瞎想最劣值最远的个体最优值为群体最优值. 此外, 通过比较最新的最优值与历史群体最优值的非驾驭排序关系, 以细目最新群体最优值. 该方法梗概灵验幸免当场取舍方法不准确性带来的影响及集聚密度等方法的打算复杂度等问题.
Fig. 3 Chromosome coding process based on array 图 3 基于数组的染色体编码过程(3)惯性权重想象
对于PSO算法的惯性权重, 本文凭证“跟着算法迭代的进行, 惯性权重进行减小, 有助于保证算法前期迭代的全局搜索和后期迭代的局部敛迹智商”的研究论断[14], 聘任了凭证迭代次数递减惯性权重值的口头. 打算过程如式(1)所示.
$ w = {W_{ub}} - \frac{{times}}{{MAX\_ITER}}({W_{ub}} - {W_{lb}}) $ (1)其中, times暗意的是刻下迭代次数, Wub与Wlb分别暗意为惯性因子的险峻界, 在本文中章程Wub取值为1, 而Wlb取值为0. MAX_ITER暗意迭代最大周期. 公式(1)中惯性权重将跟着迭代次数的增多而减小.
(4)拒绝要求想象
接洽到自稳妥决策问题需要尽快得到决策驱逐, 且一般实践工程问题并不非常要求得到确切有趣有趣上的最优解, 因此本文聘任章程迭代次数, 达到时即拒绝算法.
当迭代次数达到章程的数值便住手迭代, 拒绝算法, 迭代次数的取值则是依据大众告诫及系统历史情况细目. 本文的拒绝要求兼顾了时刻支拨和决策驱逐, 在实践场景中更具应用价值.
(5)移动算子想象
本文聘任了并行遗传算法的想想, 引入移动算子, 用于竣事各个子种群中个体的移动. 移动算子主要作用是胁制各个子种群间个体的移动, 如式(2)所示.
$ Transport=\{种群移动率\text{, }移动周期\text{, }移动策略\text{, }移动拓扑\} $ (2)式(2)中种群移动率指子种群之间迁入新个体占原子种群的比重; 移动周期指子种群之间进行个体移动的时刻间隔; 移动策略是指子种群之间个体移动策略, 一般包括若何取舍向外移动的个体、种群领受个体后的置换策略以及迁出个体的保留策略; 移动拓扑是指种群之间个体的移动旅途.
本文遗传算子竖立如图4所示, 经过屡次实验, 为保证并行效率本文将种群移动率竖立为10%. 对于移动策略, 当今的主要替换口头包括替换最差的个体或当场替换两类, 其中取舍取舍最优个体可加速算法的敛迹效率, 可是取舍当场个体移动, 在一段时刻后, 可能会因为膨胀了种群的各种性而得到更好的效果. 本文概述接洽了上述两种方法, 并接洽到算法的敛迹效率更为紧要, 因此想象移动策略为取舍8%最优个体替换迁入种群的最差个体, 2%当场个体替换迁入种群的2%当场个体; 同期, 为减少支拨, 本文取舍同步移动的想路, 每隔T代移动一次; 移动拓扑聘任单向环形拓扑.
引入移动算子后, GAPSO算法将差异出多少子种群, 通过聘任多线程的技艺并行搜索决议空间, 并通过移动算子竣事个体移动和信拒却互, 最终得到最优解集, 竣事并行搜索提高搜索效率.
3.3 基于ELECTRE的多方针排序法针对指控系统策略的战场空间大、不细目因素多, 情况可变性强的特质, 在战时决策中既需要提高决策效率, 又要确保决策的科学性. 因此, 本文基于ELECTRE (elimination et choice translating reality) 方法, 量化率领员偏好、调整支拨和调整时刻等与指控系统联系的评价方针, 然后结合和洽性和非和洽性的宗旨, 设定了两种锻练方法, 竣事对前沿自稳妥策略集聚的评估和排序.
Fig. 4 Design of transfer operator 图 4 移动算子想象在和洽性锻练方面, 本文量化了用户偏好和调整支拨的评价方针, 在此基础上, 对比前沿调整策略的质地, 从而惩办由于不同方针函数产生的驱逐不同导致的调整策略不唯一的问题, 进一步优化取舍最好策略.
其中, 在战场环境下的用户偏好主要指的是率领偏好, 是对不同方针函数的竖立的权重值, 往常在策略生成过程中进行; 在此基础上, 通过加权打算出决议i概述通盘方针函数后的总得分, 即用户偏好得分 $Score\_Preferenc{e}_{i}$ .
调整支拨暗意自稳妥决策机制实施特定调整决议的演化重构支拨. 包含资源销耗costresources, 时刻销耗costtime和范围影响costscope等. 领先, 凭证大众告诫或实践测试打算得出支拨之和暗意调整决议i的调整支拨 $ Cos{t}_{i} $ ; 然后, 通过概述接洽策略i的调整支拨占通盘策略的调整支拨的比值进行打算出调整支拨得分 $ {Score\_Cost}_{i} $ . 调整支拨得分越大, 则暗意该策略在通盘前沿集聚调整策略中更具有上风.
在上述两种评价方针的基础上, 本文结合自稳妥系统决策告诫, 通过对不同的评价方针设定权重值, 打算策略总得分. 其中, 本文接洽指控系统的自稳妥决策需求并通过研究大众告诫, 觉得在战场环境下策略取舍过程中, 用户偏好对决策驱逐的影响力应大于调整支拨, 为此本文将用户偏好的比重竖立为0.7, 调整支拨比重竖立为0.3, 如公式(3)所示可打算最终的总得分 $ Scor{e}_{i} $ .
$ Scor{e_i} = 0.7\times Score\_Preferenc{e_i} + 0.3\times Score\_{Cos} {t_i} $ (3)在非和洽性锻练方面, 本文设定了用户对评估方针和方针函数所梗概经受的阈值, 其中包括对用户偏好、调整支拨以及方针函数驱逐3个部分. 通过将阈值四肢调整策略是否非和洽的揣测依据, 筛选出通盘得分齐在合理阈值之内策略, 并进一步通过和洽性锻练方法取舍最好策略, 梗概粗野用户偏好, 灵验提高调整策略的合感性和适用性.
在上述两个部分的策略评估方法的基础上, 本文建立了多方针排序法的主要过程如算法2所示. 该方法领先获取可变心点的现象信息, 打算出各调整策略的总得分, 然后通过和洽性锻练和非和洽性锻练顺次筛选, 最终取舍出惟一的最好调整策略.
因此, 本文所提议的多方针排序方法梗概稳妥较为复杂的战场环境, 针对多方针函数的自稳妥决策问题, 概述分析多种影响因素对调整策略的影响, 并对不同的调整策略进行量化评分, 从而取舍出惟一策略. 该方法结合了用户指控偏好, 并诈欺大众告诫处理实践战场指控的需求, 梗概灵验弥补东谈主工参与的局限性, 成心于提高自稳妥决策驱逐的灵验性和合感性.
4 实验考证与分析本节先容了本文对基于并行搜索的自稳妥决策方法在军事率领胁制系统辖域中开展的实验及驱逐分析职责. 领先先容实验的具体方法, 然后给出实验的实践驱逐并进行分析考虑.
4.1 实验想象为考证方法的灵验性, 本文尝试想象了3个实验对其进行考证.
算法2. 多方针排序法.
Input: 前沿策略集; 方针的权重; 可变点调整支拨; 和洽性方针阈值; 方针函数阈值;
Output: 最优决议Pi.
1. for i=1 to $P.si{\textit{z}}e$
2. 打算用户偏好得分 $Score\_Preferenc{e}_{i}$
3. 打算调整支拨得分 $ Score\_Cos{t}_{i} $
4. 凭证式(3)打算决议总得分 $ Scor{e}_{i} $
5. end
6. sort( $ P $ , $ P.Score $ ); //将策略集按每个方针得分降序摆设
7. for i=1 to $P.si{\textit{z}}e$
8. for j=1 to 和洽性锻练方针个数
9. if 第i条策略的第j个和洽性检测方针< 其第j个和洽性锻练方针阈值
10. then 剔除此决议;
11. end
12. for j=1 to 方针函数阈值个数
13. if $ P.scor{e}_{j} $ < 第j个方针函数阈值
14. then 剔除此决议;
15. end
16. end
17. Print Pi //输出最优策略
4.1.1 RQ1. 本文提议的决策方法在指控系统的运行场景下是否能产生灵验策略?本文模拟了军事系统中的搜索子系统四肢案例系统, 并在系统中取舍典型场景, 测试方法的策略效果, 以此评价方法效果. 具体实验想象如下.
自稳妥胁制平台. 为更好的竣事对案例系统的自稳妥调整, 本文使用了本团队开发的自稳妥胁制平台, 平台由开发层、运行层和基础设施层组成. 其中开发层提供了用于自稳妥演化逻辑想象阶段的系统想象开发用具集; 运行层提供了用于自稳妥演化机制运行阶段的基于Agent的演化运行支握平台, 由主胁制平台和从平台两种类型组成; 基础设施层提供了支握软件正常运行所需的主流软硬件环境. 结构如图5所示.
领先, 在开发层平台深切过Agent包装用具将需要进行自稳妥演化的软件单元封装为Agent并提供对外的调用接口. 其次深切过集成效令想象用具生成初步的演化功令, 在本文的方法中对应的是自稳妥决策问题的可行解空间. 然后, 通过演化经管功令想象用具形成演化经管功令即本文中的经管函数, 并通过演化经管功令查验用具进行考证. 在运行层, 分为主胁制平台与平台两种类型. 其中, 从平台谨慎竣事对软件系统正常运行的支握, 主要谨慎Agent的叹惜以及通讯等功能. 主胁制平台除需要支握软件系统的正常运行外, 同期还需谨慎提供软件动态集成演化过程中所需的各项作事. 其中枢组件为演化胁制引擎, 演化胁制引擎会剖析并向各从平台分发集成演化功令, 竣事对Agent自身结构或Agent间合作关系的调整, 从而竣事软件的动态演化.
测试系统取舍. 在率领胁制系统中对于战场环境的信息采集智商和处明智商有着较高的需求, 同期在具有较大的动态性和不细目性的战场环境下, 数据信息也呈现出复杂多变的特征. 因此, 本文以信息征集动手想象了一个搜索子系统, 通过模拟复杂动态环境变化以考证本方法在指控领域的灵验性. 接洽到动态的战场环境, 本文想象的搜索子系统将7×24不休运行, 并通过关闭运行节点、负载调整等口头以模拟动态场景. 在这种环境下该系统为保证踏实运即将面对3方面的特殊需求. 具体而言, 领先其面对着节点挫伤、任务调整等多种突发秉性况, 对于这些情况系统需要保证其踏实可靠性, 需要进行在线进行演化调整. 其次, 在调整过程中, 由于每个节点的物理信息是不同的(CPU、内存等), 且服求实例需求不同, 形成的调整决议空间是广泛的. 举例, 现存节点上的8个联系服求实例需要进行调整, 此时, 有10个节点可供调整, 产生的决议空间将达到一亿的界限. 而且, 由于运行环境的复杂性, 是无法准确预计到系统的变化情况, 仅依靠东谈主力进行调整是不可行的, 因此需要自主策略生成. 终末, 是对于策略衡量问题, 当系统发生多种变化时, 可能会产生多个对归拢资源进行救援的策略进而产生新的问题出现, 因此需要针对这种情况对产生的策略进行衡量取舍出合理的调整策略. 本文提议的方法梗概惩办在此案例系统下由于动态环境引起的突发性问题, 对其进行在线调整, 产生合理的调整策略.
Fig. 5 Agent-based adaptive software control framework 图 5 基于Agent的自稳妥软件胁制框架测试系统概述. 本文想象的搜索子系统包含了一个区域的组成信息、开荒信息以及环境信息, 结构如图6所示. 系统包含对组成信息主题作事、开荒信息主题作事以及环境主题作事. 每种类型的作事齐提供视频搜索、图片搜索以及基本信息搜索3种功能. 在获取联系信息后, 会经过分析排序展示给率领东谈主员. 在系统的部署方面, 该系统聘任了多节点漫衍式部署, 每个节点上有多少个作事, 凭证需求每个作事均有多少个实例.
本文实验所想象的搜索子系统包含13个节点, 每个节点中包含多少数据处理实例和感知监控实例, 13个节点竟然立分为3类, 主要谨慎信息叹惜的节点, 主要谨慎信息通讯节点作事以及主要谨慎信息分析的节点. 其中信息叹惜节点共有7个, 编号为node1–node7. 信息通讯节点共有3个, 编号为node8至node10. 信息分析节点共有3个, 编号为node11–node13, 具体节点确立信息如表2所示. 每个节点上含有基本的8个服求实例, 分别为谨慎视频搜索、图片搜索以及基本信息搜索3种类别的数据检索服求实例, 谨慎对组成信息、开荒信息以及环境信息的数据处理服求实例, 以及两个谨慎感知信息变化调整的感知监控实例.
测试场景概述. 本实验取舍了在军事环境中典型的挫伤替换场景四肢测试场景. 挫伤替换场景是指在搜索子系统在运行的过程中, 某一个或者某些作事的实例可能由于某种原因而极度拒绝运行, 需要重新部署挫伤节点上运行的服求实例并通过寻找系统中可用的其他节点来替代已挫伤的节点, 不息实施该节点的任务, 以保证系统的正常运行. 本文在该场景下进行实验以考证方法, 具体过程如下, 本文在该过程聘任了基于并行搜索的自稳妥决策方法将自稳妥决策过程映射为多方针优化的问题, 进行决策处理. 针对挫伤替换场景, 主要包含4个门径.
(1) 通过分析节点特质以及领域特征建立方针函数, 以取舍出重新部署的节点;
(2) 为挫伤节点寻找替换节点进行接替;
(3) 由于取舍进行替换的节点在重新部署后可能会产生诸多的问题, 也即是上文提到的策略可能会发生冲突, 为此还需对系统负载进行监控调整, 以竣事衡量决策. 具体通过对挫伤作事重新部署并密切监控搜索子系统举座现象, 若负载较重, 实施负载平衡措施;
(4)重新打算负载, 调整部署.
Fig. 6 Search subsystem architecture diagram 图 6 搜索子系统体紧缚构图 Table 2 Node configuration information table 表 2 节点确立信息表测试方针概述. 为了更好的揣测本方法在指控领域场景下效果, 本实验建立了两个度量方针具体如下.
• 方针1: 每秒反映央求数. 系统在单元时刻内的反映央求数量, 通过监听器不错得到秒钟内恶果反映央求的数量. 每秒反映央求数往常是用作系统性能测试的度量模范之一, 在本实验中将其四肢系统是否正常运行, 以及策略质地的模范. 如果系统的每秒反映央求数在正常范围内诠释系统在正常运行, 而且通过不错通过每秒反映央求数量的变化不雅察策略质地的情况.
• 方针2: 节点负载量. 在本系统内节点的负载主要阐述为CPU负载率、内存占用率、磁盘占用率, 为对本文方法产生的策略质地进行评估, 本文想象了节点负载量进行量化, 为上述3种方针竖立权重以概述判断节点负载情况, 具体为CPU负载率的比重为0.4, 内存占用率比重为0.3, 磁盘占用率为0.3.
4.1.2 RQ2. 本文方法的性能和健壮性若何?能否稳妥指控领域的极点场景?本文通过模拟大界限场景以及极点环境进行了方法的性能及健壮性测试, 通过想象大界限打算节点以模拟将来向大界限处所发展的战场趋势, 通过测试大界限环境下的算法反映时刻以考证算法的性能. 其次为考证本方法在极点环境是否还是灵验, 本实验通过改革在大界限打算节点的挫伤比例不雅察策略效果以考证本方法的健壮性.
测试环境想象. 本文想象模拟了一个大界限场景进行挫伤测试, 模拟了4 700个臆造节点, 每个节点中包含一个感知监控作事以及一个数据处理作事, 实验环境如表3所示, 共有15台该类型打算机, 其中每台打算机均建立2台臆造机节点, 在微作事平台下, 组成以30台打算节点的集群, 并通过kubernet管理用具创建了4 700个臆造节点.
Table 3 Experimental computer information 表 3 实验打算机信息测试方针概述. 为更好的对本方法在挫伤接替场景下进行评价, 本文建立两个度量方针具体如下.
• 方针1: 算法反映时刻. 自稳妥决策算法反映时刻的是曲不错在一定进程上反应算法的优劣. 在实践测试中, 记载自稳妥决策算法动手决策的时刻为t1; 自稳妥决策算法决策完成, 找到合适的替换节点的时刻为t2. t2与t1之差即为自稳妥决策算法反映时刻.
• 方针2: 策略调整时刻. 策略调整时刻是指自稳妥决策方法产生的策略从策略下发动手到系统调整完成的时刻, 举例有一调整策略发出, 此时记载的时刻为t1; 每秒遍历受影响的作事, 并记载对应作事下的实例数量. 当实例数量发生改革时, 即代表新的实例部署顺利动手正常对外提供作事, 记载刻下时刻为t2. t2与t1之差即为节点挫伤的调整时刻.
4.1.3 RQ3. 本方法与其他基于搜索的方法和其他军事指控的自稳妥决策方法有何区别?本文取舍将基于并行搜索的自稳妥决策方法与当今自稳妥领域中常用的自稳妥决策方法进行比较, 从基于搜索的自稳妥决策方法以偏执他军事指控的自稳妥决策方法层面进行类别差异, 取舍了包括Coker团队提议的基于决策树体式的复合自稳妥决策方法[4]、中国电科28研究所金欣等东谈主提议的基于功令的指控功能模块自稳妥加载方法[15]、空军工程大学焦志强等东谈主提议的基于效能的指控策略上风评估决策方法[16]. 具体实验想象如下.
对比喻法取舍. 录取上述方法的主要原因回来如下.
• 在基于搜索的方法中录取了Coker团队提议的基于决策树体式的复合自稳妥决策方法, 该方法是当今惟一联系的基于搜索的软件工程方法与自稳妥决策相结合的方法, 主要接洽软件变化之间的关系且存在动态优先级变化的特质, 聘任静态离线的口头竣事基础的策略生成. 因此, 本文取舍该复合自稳妥决策方法与本文的并行搜索方法进行对比.
• 在指控领域下对比喻法取舍了中国电科28所金欣团队提议的基于功令的方法以及来自空军工程大学焦志强团队提议的基于效能的方法. 其原因是在指控领域种应用最庸俗的自稳妥方法即为基于功令、基于效能等方法, 这些方法经过多年研究证据了其在指控领域的适用性. 其次, 这两种方法的研究职责来自于中国电科28研究是以及空军工程大学, 其研究布景与指控领域有着很高的联系性, 能与本文提议的方法形成更可靠、更灵验的对比. 具体来说, 基于功令的自稳妥决策方法是依据统外部环境发生变化, 从已有的大众学问库和功令库取舍合适策略作念出决策, 因其浅薄高效的运行效率、较强的可解释性等上风成当今在指控系统应用最庸俗的方法, 因此本文录取基于功令的自稳妥决策方法进行对比以测试本文方法在实施效率上是否能优于该经典方法. 基于功令的方法的静态性使得策略最优化问题上效果欠安, 而基于效能的自稳妥决策方法, 凭证对一定客不雅现实的主不雅判断结构把大众意见和分析者的客不雅判断驱逐径直而灵验地结合从而界说效能, 依据效能值的大小取舍最优决策以竣事系统自稳妥. 因此, 本文通过对比基于效能的方法以测试本文方法在策略寻优上的效果.
测试环境想象. 为了确保本文方法在军事指控领域存在实践的应用价值, 本文取舍将对比实验的运行环境依照上述问题一中所聘任的搜索子系统的测试环境进行确立, 灵验考证了本文方法在军事指控领域的可用性. 同期, 诈欺不异的测试环境进行实验, 不错惩办由于不同测试环境导致的对比实验驱逐存在流毒的问题, 成心于确保实验驱逐的可靠性.
测试方针概述. 在此基础上, 本文准备了策略效率和策略效果两类对比测试, 模拟上述方法的在具体场景下的应用情况, 旨在测试评估各种方法的灵验性和优劣性. 同期, 为了更好的量化实验效果, 本文录取了决策过程耗时和策略质地值两种评估方针, 分别对方法的效率和效果进行测试.
• 方针1: 决策过程耗时. 从自稳妥决策方法从动手实施到完成的圆善自稳妥决策过程的耗时.
• 方针2: 策略质地值. 调整决议在可行解空间中所存在的位置坐标距离瞎想点的距离.
其中, 为了对比决策方法的效率, 本文拟打算自稳妥决策过程的耗时. 在实践测试中, 在决策方法实施前后进行时刻日记输出处理, 记载自稳妥决策算法动手决策的时刻为t1; 自稳妥决策算法决策完成, 找到合适的调整决议的时刻为t2.t2与t1之差即为自稳妥决策过程的耗时.
为对比决策方法的效果, 本文拟分析决策方法产生的策略的优劣性. 刻下多数策略评估方法齐聘任由Hwang和Yoon提议的TOPSIS[17], 因不同策略最终齐是对可变点的调整, 凭证本文之前的想象, 不同的策略齐不错映射到可行解空间中. 因此, 本文拟将不同调整决议映射到可行解空间中, 并分析在可行解空间中距离瞎想最优点以及瞎想最劣点的欧式距离, 并四肢策略质地值分析策略的优劣性, 进而对比决策方法的智商. 该方法觉得距离瞎想最优点最近而距离瞎想最劣点最远, 即策略质地值最大的坐标位置所对应的调整决议为最优.
4.2 方法测试 4.2.1 面向指控领域的自稳妥决策方法测试(RQ1)在挫伤替换场景中, 领先需要凭证节点信息以及环境特质等因素将服求实例重新部署过程映射为多方针优化过程, 凭证驱逐将挫伤的实例重新部署到取舍的节点上, 由于各个节点的性能不同, 重新部署的作事可能会形成节点负载过重的问题, 因此需要对部署后的实例进行负载进行调整以使系统达到更佳的现象. 具体实验过程及驱逐分析如下.
(1)将自稳妥决策过程映射为多方针优化问题
在挫伤替换场景中, 影响系统取舍替换节点的因素主要包括3方面, 节点自己的底层环境信息、节点之间的交互性以及军事系统的领域特质等, 需要概述接洽上述因素取舍替换节点, 建立方针函数来搜索最优的可替换节点. 具体接洽的方针如下:
• 节点的底层环境信息, 即节点的CPU、内存、磁盘的使用情况和可用情况以及总的智商. 这些信息是保证节点不错正常实施任务的必要要求.
• 节点之间的通讯智商. 对于军事信息系统来说, 其运行环境的复杂性和高实时性的要求使得系统里面的节点之间需要往常进行交互来保证系统的正常运行, 因此, 节点之间的通讯智商对于节点正常的实施任务也显得尤为紧要.
• 节点的可靠性和安全性. 由于军事领域中的军事信息系统的特殊性, 其数据和节点需要高度的隐痛机制和安全机制亦然不可勤快的接洽因素.
针对上述3种因素, 本文在挫伤替换的搜索过程中建立了CPU、内存、磁盘、采集及安全5种方针函数, 如下.
$ {x_i}.CpuAbility = {x_i}.CP{U_{\rm{type}}}\times \left( {\frac{{{x_i}.CP{U_{\rm{frequency}}} - \min \left( {CP{U_{\rm{frequency}}}} \right)}}{{\max \left( {CP{U_{\rm{frequency}}}} \right) - \min \left( {CP{U_{\rm{frequency}}}} \right)}} + \left( {1 - {x_i}.CP{U_{\rm{used}}}} \right)} \right) $ (4)如公式(4)所示 $ {x}_{i}.CpuAbility $ 暗意节点 $ {x}_{i} $ 的CPU智商. 其中, ${x}_{i}.CP{U}_{\rm{type}}$ 暗意节点 $ {x}_{i} $ 的CPU类型, ${x}_{i}.CP{U}_{\rm{frequency}}$ 暗意节点 $ {x}_{i} $ 的CPU处理频率, ${x}_{i}.CP{U}_{\text{used}}$ 暗意节点 $ {x}_{i} $ 的CPU诈欺率.
$ {x_i}.MemoryAbility = {x_i}.Weigh{t_{\rm{Type}}}\times \left( {\frac{{{x_i}.Memor{y_{\rm{speed}}} - \min \left( {Memor{y_{\rm{speed}}}} \right)}}{{\max \left( {Memor{y_{\rm{speed}}}} \right) - \min \left( {Memor{y_{\rm{speed}}}} \right)}} + \frac{{1 - {x_i}.Memor{y_{\rm{used}}}}}{{\max \left( {1 - Memor{y_{\rm{used}}}} \right) - \min \left( {Memor{y_{\rm{used}}}} \right)}}} \right) $ (5)如公式(5)所示 $ {x}_{i}.MemoryAbility $ 暗意节点 $ {x}_{i} $ 的内存智商. 其中, ${x}_{i}.Weigh{t}_{\rm{Type}}$ 暗意节点 $ {x}_{i} $ 的内存类型权重, ${x}_{i}.Memor{y}_{\rm{speed}}$ 暗意节点 $ {x}_{i} $ 的内存读写速率, ${x}_{i}.Memor{y}_{\rm{used}}$ 暗意节点 $ {x}_{i} $ 的内存诈欺率.
$ {x_i}.DiskAbility = {x_i}.Weight_{\rm{Type}} \times \left( {\left( {{x_i}.Disk_{\rm{speed}}} \right)/\left( \begin{gathered} \max \left( {Disk_{\rm{speed}}} \right) - \left( {\min \left( {Disk_{\rm{speed}}} \right)} \right) + \hfill \\ \frac{{\left( {1 - {x_i}.Disk_{\rm{used}}} \right) - \min \left( {1 - Disk_{\rm{used}}} \right)}}{{\max \left( {1 - Disk_{\rm{used}}} \right) - \min \left( {1 - Disk_{\rm{used}}} \right)}} + \hfill \\ \frac{{{x_i}.Disk_{\rm {size}} - \min \left( {Disk_{\rm{size}}} \right)}}{{\max \left( {Disk_{\rm{size}}} \right) - \min \left( {Disk_{\rm{size}}} \right)}}\times \varepsilon \hfill \\ \end{gathered} \right)} \right) $ (6)如公式(6)所示 $ {x}_{i}.DiskAbility $ 暗意节点 $ {x}_{i} $ 的磁盘智商. 其中, ${x}_{i}.Weight_{\rm {Type}}$ 暗意节点 $ {x}_{i} $ 的磁盘类型权重, ${x}_{i}.Disk_{\rm {speed}}$ 暗意节点 $ {x}_{i} $ 的磁盘平均读写速率, ${x}_{i}.Disk_{\rm {used}}$ 暗意节点 $ {x}_{i} $ 的磁盘诈欺率, ${x}_{i}.Disk_{\rm{size}}$ 暗意节点 $ {x}_{i} $ 的磁盘大小.
$ {x_i}.NetAbility = \left( {1 - {x_i}.packageFailure} \right)\times \left( {1 - {x_i}.R{n_{\rm{used}}}} \right)\times {x_i}.Through $ (7)如公式(7) $ {x}_{i}.NetAbility $ 暗意节点 $ {x}_{i} $ 的采集通讯智商. 其中, $ {x}_{i}.packageFailure $ 暗意节点 $ {x}_{i} $ 的丢包率, ${{x}_{i}.Rn}_{\rm{used}}$ 暗意节点 $ {x}_{i} $ 的采集诈欺率, $ {x}_{i}.Through $ 暗意节点 $ {x}_{i} $ 的输入输出总流量, 即迷糊率.
$ {x_i}.Safe = {x_i}.SA\times \left( {{x_i}.IMTTF} \right) $ (8)如公式(8) $ {x}_{i}.Safe $ 暗意节点 $ {x}_{i} $ 的安全智商. 其中, $ {x}_{i}.Safe $ 暗意节点 $ {x}_{i} $ 的节点区域安全评估品级, $ {x}_{i}.IMTTF $ 暗意节点 $ {x}_{i} $ 的失效前正常职责的平均时刻.
(2)挫伤节点实例重新部署决策
为模拟挫伤接替场景, 本文关闭了搜索子系统中的节点node7以模拟节点挫伤, 该节点共部署实例8个, 包含数据处理服求实例3个, 实例编号为I0、I1、I2, 数据检索实例3个, 实例编号为I3、I4、I5, 以及感知监控服求实例2个, 实例编号为I6、I7.
该节点挫伤之后, 感知机制无法获取该节点信息, 判断该节点挫伤并发布“挫伤替换”事件. 系统收到“挫伤替换”事件及联系信息, 触发决策行动. 此时, 为了保险搜索子系统的搜索驱逐的实时性, 自稳妥决策需要在其他节点上重新部署挫伤节点上的服求实例. 自稳妥决策凭证其他节点现象, 接洽节点举座的资源诈欺率, 顺次为挫伤节点上的服求实例寻找部署节点, 凭证方针函数打算得到各节点在CPU、内存、磁盘、采集及安全5个维度上的得分, 打算得分片断如表4所示.
通过打算得出了实例重新部署在各个节点中的得分, 由于I0、I1、I2为数据处理服求实例对CPU及内存的需求更为紧要, 因此决定将其部署在node12节点上. I3、I4、I5为数据检索作事对内存以及磁盘需求较高, 因此决定将其部署在node13节点上, I6、I7为感知监控服求实例, 对采集和安全需求较高, 因此决定将其部署在node9节点上.
(3)部署节点负载平衡调整决策
由于打算节点性能各不交流, 可部署的实例种类及数量不尽交流. 接洽到节点负载智商有限, 若感知机制监控到刻下系统有负载较重的趋势, 自稳妥决策将触发负载平衡重新筹谋部署决议.
在进行负载平衡调整之前, 需要接洽节点诈欺率以及作事运行效率这些与负载平衡联系的数据, 建立方针函数来搜索最优的负载调整决议. 具体方针函数建立如下.
节点诈欺率得分 ${S}_{\rm {use}}$ 概述接洽各个节点的各项资源的诈欺率得分如公式(9)所示.
$ {S_{\rm {use}}} = \sum\nolimits_{i = 1}^n {\left( {\alpha {S_{cp{u_i}}} + \beta {S_{me{m_i}}} + \gamma {S_{dis{k_i}}}} \right)} $ (9)其中, $ n $ 为节点个数. 单个节点的诈欺率得分需要考量的资源有CPU诈欺率得分 $ {{S}_{cpu}}_{i} $ 、内存诈欺率得分 $ {{S}_{mem}}_{i} $ 和磁盘诈欺率得分 ${{S}_{disk}}_{i}, \alpha,\; \beta,\; \gamma$ 分别为三者诈欺率权重. 其中各资源诈欺率的打算方法为已分拨给容器的资源与总资源之比.
作事运行效率 $ {S}_{cap} $ 分为两个方面: 其一为单个服求实例的运行效率得分 $ {{S}_{cap}}_{i} $ , 其二为服求实例之间通讯的效率得分 $ {{S}_{b\_cap}}_{i} $ , 如公式(10)所示.
$ {S_{cap}} = \sum\nolimits_{i = 1}^n {{S_{ca{p_i}}} + \sum\nolimits_{i = 1}^m {{\omega _i}{S_{b\_ca{p_i}}}} } $ (10)其中, $ n $ 暗意服求实例的个数, $ m $ 则暗意服求实例间通讯关系总和. 单个服求实例的运行效率得分 $ {{S}_{cap}}_{i} $ 整个接洽6个方面, 分别接洽CPU配额、内存类型、磁盘类型、采集失败率、安全品级以及仪器安全性(IMTTF)方针, 各方面得分的打算口头为节点实践信息与实例预期值(节点预期确立信息表)的比. 服求实例之间通讯的效率得分 $ {{S}_{b\_cap}}_{i} $ 的打算方法为遍历已知服求实例间的通讯关系, 若有通讯关系的两边部署于归拢个节点, 则其得分为1, 不然得分为0, 其权重 $ {\omega }_{i} $ 则是此通讯关系的强度.
Table 4 Example of service scoring fragments at each node 表 4 作事在各个节点得分片断示例随后, 自稳妥决策方法凭证方针函数, 打算搜索子系统在剩余12个节点上的最好部署策略. 若12个节点暂时无法粗野搜索子系统的资源需求, 系统将凭证取舍减少一些次要作事的实例数量致使关闭一些次要作事, 以保证主要搜索任务的进行; 终末, 产生适合调整部署的策略集聚. 经过自稳妥决策方法得出了在6个节点内调整的较优策略, 如表5所示.
(4)基于后优化表面的负载平衡策略取舍
自稳妥机制在实施调整策略时, 必须依据惟一的策略决议对系统结构和行动作出调整. 因此, 圆善的自稳妥决策方法还需要在上述方法产生的前沿策略集聚的基础上, 凭证不同决策环境下的决策需求与取舍方针, 结合作战偏好、资源态势等方针进行评估排序, 产生最优的惟一调整策略. 具体评估打算方法如下.
Table 5 Optimal instance adjustment strategy 表 5 较优实例调整策略用户偏好得分 ${{S}{c}{o}{r}{e}\_{P}{r}{e}{f}{e}{r}{e}{n}{c}{e}}_{i}$ 主如果通过率领者对不同方针函数竖立的权重, 加权打算决议i在通盘方针函数的概述得分, 即用户偏好得分, 如公式(11)所示. 其中, ${Preference}_{i}$ 为用户偏好权重, ${{S}{c}{o}{r}{e}}_{i}$ 为不同方针函数得分.
$ Score\_Preferenc{e_i} = \sum\nolimits_i^n {\left( {Preferenc{e_i}\times Scor{e_i}} \right)} $ (11)调整支拨得分 ${{S}{c}{o}{r}{e}\_{C}{o}{s}{t}}_{i}$ 概述接洽策略i的调整支拨占通盘策略的调整时刻支拨的比值进行打算, 如公式(11)所示. 其中, $ {Cost}_{i} $ 是特定策略调整时刻支拨, $ \displaystyle{\sum }_{i=1}^{n}{Cost}_{i} $ 是通盘策略的调整时刻支拨之和.
$ Score\_{Cos} {t_i} = \frac{1}{2}\left( {1 - \frac{{{Cos} {t_i}}}{{\displaystyle\sum\nolimits_{i = 1}^n {{Cos} {t_i}} }}} \right) $ (12)部署策略总得分 ${{S}{c}{o}{r}{e}}_{i}$ 概述接洽时刻调整支拨和用户偏好得分, 具体打算如公式(12)所示.
$ Scor{e_i} = 0.7\times Score\_{P} referenc{e_i} + 0.3\times Score\_{Cos} {t_i} $ (13)以本次场景考证据验为例, 在上述策略集聚结, 假定节点资源有限, 应该较多地接洽节点资源诈欺率, 策略1的得分情况稍微高于策略2, 但若想更好地提供作事, 策略2显耀优于策略1. 因此, 接洽到上述两种策略在资源诈欺率方针上差距不大, 本文将作事运行效率的用户偏好权重竖立为0.7, 将节点诈欺率的用户偏好权重竖立为0.3, 打算不同策略的用户偏好得分. 然后, 将每个服求实例的调整行动时刻支拨竖立为1, 策略1调整了5个服求实例, $ {Cost}_{1} $ 为5; 策略2调整了5个服求实例, $ {Cost}_{2} $ 为5. 凭证式(12)可得策略1的支拨得分为 ${{S}{c}{o}{r}{e}\_{C}{o}{s}{t}}_{1}=0.3$ , 策略2的支拨得分为 ${{S}{c}{o}{r}{e}\_{C}{o}{s}{t}}_{2}=0.2$ . 终末, 再凭证式(13)打算得出终末策略总得分如表6所示.
Table 6 Strategy evaluation calculation table 表 6 策略评估打算表因此, 凭证总得分, 本文录取了作事质地举座阐述更为优秀的策略2四肢系统部署调整的策略.
为更好的说明本方法梗概保证系统正常庄重运行, 本实验进行每秒央求反映数量的测试, 通过向挫伤节点中的3种类型的作事发送多数央求不雅察每秒央求反映数量, 如果每秒央求数量保握在正常范围内则诠释系统处于庄重运奇迹态. 实验驱逐如图7所示. 其中横轴暗意进行自稳妥决策过程的时刻, 单元为s, 纵轴暗意在该时刻点央求反映的个数.
Fig. 7 Changes in the number of requests and responses per second 图 7 每秒央求反映数量变化图从测试驱逐不错看出, 在自稳妥决策过程动手的一段时刻内央求反映数量仅保握在个位数, 这是由于算法需要一定的实施时刻, 而且将挫伤节点上的实例重新部署到其他节点上并进行调整需要一定的时刻. 这个时刻从图中不错看出在7–8 s间, 央求反映数量复原正常范围内并趋于踏实, 这是有由于挫伤节点上的实例调整部署收场, 系统复原庄重运奇迹态, 这个时刻间隔保管在了10 s以内, 梗概粗野指控领域的需求, 因此方法梗概灵验进行自稳妥调整.
同期为考证本方法在进行策略调整时最终产生的策略是灵验的, 本文对进行调整的节点进行了节点负载量监控, 主要监控了参与调整的node2、node4、node8、node9、node12以及node13这6个节点的节点负载量, 实验驱逐如图8所示. 其中横坐标暗意进行策略调整的时刻, 单元为秒, 纵轴暗意节点的负载量.
Fig. 8 Node load change graph 图 8 节点负载量变化图从测试驱逐不错看出, 策略调整之初由于将挫伤节点集合部署在了node9、node12以及node13节点上导致了这3个节点的负载过高, 偏离了正常负载范围, 而node4、node5以及node8节点负载过低莫得得到充分诈欺, 从图中咱们梗概看到偏离正常负载范围的节点在经过实施调整策略后负载渐渐合理并趋于庄重. 这诠释了本方法产生的策略梗概灵验调整系统, 使得系统庄重运行.
从上述实验不错看出, 本文提议的自稳妥决策方法梗概在指控领域挫伤接替场景下竣事自稳妥决策问题到最优化问题的鼎新, 同期不错针对多种因素竣事策略的衡量决策, 终末通事后优化表面产生惟一策略.
4.2.2 性能与健壮性测试(RQ2)为考证本方法的性能及健壮性, 本文想象了在大界限环境下算法反映时刻的测试实验以及不同挫伤进程下的产生策略的效果, 具体实验如下.
(1)大界限环境下算法性能测试
为了考证方法在大界限场景下还是具有实时性, 本文进行了自稳妥决策算法反映时刻测试, 通过调整节点数量不雅察算法的反映时刻. 本实验中从200个节点动手进行测试, 并顺次增多100、200、300、400、500、600、700、800、900个节点直到4 700个节点, 不雅察算法反映时刻的变化情况, 针对每个界限进行10次实验, 并取平均值四肢实验驱逐. 节点数与自稳妥决策反映时刻如图9所示, 其中横轴暗意节点的总和, 纵轴暗意反映的时刻, 时刻单元为 ms.
Fig. 9 Node number and adaptive decision response time 图 9 节点数与自稳妥决策反映时刻从测试驱逐不错看出, 本文提议的自稳妥决策方法, 跟着打算节点的快速增多, 算法的反映时刻长久保握在一个可经受的范围内. 其中, 算法反映时刻在3 800个可取舍节点下逾越了2 s, 在1 700个模拟节点以下算法反映时刻均不逾越1 s, 这说明尽管跟着指控领域打算界限的变大, 本方法还是梗概粗野军事系统的高实时的需求 .
(2) 极点环境下方法健壮性测试
接洽到在极点环境下, 节点挫伤比例将会到达很高的比例, 为考证在此种极点环境下的健壮性, 本文通过调整节点挫伤比例不雅察系统节点挫伤调整时刻变化情况. 本实验中将测试节点挫伤比例测试区间细目为10%–60%, 每次节点挫伤比例增多10%. 针对不同节点挫伤比例进行10次实验, 并取每次时刻的平均值为节点挫伤调整时刻. 节点挫伤比例与调整时刻如图10示, 其中横轴暗意节点挫伤比例, 纵轴暗意节点挫伤调整时刻, 时刻单元为s.
Fig. 10 Change of adjustment time with node damage ratio 图 10 调整时刻随节点挫伤比例变化图从测试驱逐不错看出, 在节点挫伤比例处于10%–60%时, 系统运行正常, 节点挫伤调整速率较快, 调整时刻不大于1 min, 梗概保证军事系统梗概握续可靠运行. 因此, 本文所提议的方法梗概产生灵验的调整策略, 保证系统在极点环境下庄重运行.
4.2.3 对比实验测试(RQ3)本文准备了策略效率和策略效果两类对比测试, 模拟了本文方法与其他联系方法的在实践场景下的应用情况, 旨在测试评估各种方法的灵验性和优劣性. 具体实验如下.
(1)决策效率测试
在决策方法的效率测试中, 本文将决策过程耗时(方针1)四肢揣测模范, 测试评估本文串行版块的自稳妥决策方法以及并行搜索的自稳妥决策方法、Coker提议的复合自稳妥决策方法[4]、基于功令的自稳妥决策方法[15]以及基于效能的自稳妥决策方法[16]在挫伤替换场景下的效率. 其中, 本文串行版块的自稳妥决策方法是指不使用并行优化机制在单线程内串行实施本方法. 并行版块是指使用并行优化机制通过差异种群以多线程的口头实施本方法, 使用两种版块的方法是为了考证并行灵验机制的灵验性. 领先, 参照上述问题一竟然立环境进行对比测试, 然后, 针对不同节点挫伤比例分别进行20次试验, 并取每次的平均值四肢决策过程耗时. 节点挫伤比例与决策过程耗时如图11所示, 其中横坐标暗意节点挫伤比例, 纵轴暗意节点挫伤调整时刻, 时刻单元为ms.
Fig. 11 Change of decision-making process time with node damage ratio 图 11 决策过程耗时随挫伤节点比例变化图在基于搜索的方法对比测试驱逐中不错看出, 本文提议的自稳妥决策方法和Coker提议的复合决策方法, 跟着挫伤比例的增长, 决策过程耗时也不休增长, 但齐不逾越2 s. 不错明白看出, 并行方法的决策过程耗时普遍低于串行方法. 在大部分情况下, Coker’s决策方法耗时普遍低于串行和并行方法, 这是由于Coker’s决策方法四肢一种静态决策口头自己就比动态决策方法耗时短所决定的. 而在挫伤节点为50%时, 静态决策方法的决策过程耗时大幅度增长, 高于串行和并行方法, 这是由于静态离线方法的功令库具有一定的局限性, 通盘的策略与事件映射齐需要事前竖立, 当不存在50%挫伤情况下的调整策略时, 需要搜索遍历圆善的可行解空间, 在搜索失败后录取与其情况访佛的挫伤40%时的调整策略.
在与指控领域的其他方法对比测试驱逐中不错看出, 跟着节点挫伤比例的增长, 本文提议的基于并行搜索的自稳妥决策方法的决策实施时刻会增大, 且其在通盘过程中的决策实施时刻基本高于基于功令的自稳妥决策方法并与基于效能的自稳妥决策方法的决策实施时刻出入不大. 本文提议的方法的决策实施时刻在节点挫伤比例为10%–30%基本高于基于功令的自稳妥决策方法, 这是由于基于功令的自稳妥决策方法判断的功令不时通过静态的口头进行, 决策时刻偏少. 而当节点挫伤比例高于40%时, 由于通盘系统挫伤比例过高, 节点数量减少, 为了完成系统需求, 每个节点必须增大其自身线程的数量, 从而导致其决策实施时刻折线图转眼猛增, 但是仍然低于基于效能的自稳妥决策方法.
(2)策略效果测试
在决策方法的效果测试中, 本文将策略质地值(方针2)四肢揣测模范, 测量评估上述除串行方法除外的4种决策方法生成策略的优劣. 领先, 本文在上述决策过程耗时测试环境的基础上, 针对不同节点挫伤比例分别进行20次试验, 分别打算不同策略每次的策略质地值并取平均值. 节点挫伤比例与策略质地数耗时如图12所示, 其中横坐标暗意节点挫伤比例, 纵轴暗意策略质地数.
Fig. 12 Change of strategy mass number with node damage ratio 图 12 策略质地值随挫伤节点比例变化图在基于搜索的方法对比测试驱逐中不错看出, 本文提议的自稳妥决策方法和静态方法的质地值在挫伤替换场景下不同挫伤比例下的策略效果相似, 与瞎想点质地值存在一定差距, 且随挫伤比例的增多而不休贬抑. 在挫伤50%情况下, 静态方法的质地值大幅度贬抑, 且低于挫伤40%和60%时的质地值. 是由于在挫伤50%情况下, 静态方法搜索可行解空间失败, 然后录取挫伤40%的调整方法, 可是由于挫伤比例的增多, 不异的调整决议并不适用于挫伤50%的情况, 策略效果低于挫伤40%的策略效果. 因此, 在实践应用时, 聘任基于并行搜索优化的自稳妥决策方法不错在放肆一定的决策过程耗时的要求下生成更踏实、可靠的策略, 而聘任静态方法竣事自稳妥决策的过程中可能会得到更快速的效果, 可是也有一定概率功令匹配失败, 严重影响软件运行, 不粗野实践军事应用场景的需要.
在与指控领域的其他方法对比测试驱逐中不错看出, 3类方法的策略质地值均跟着节点挫伤比例的增大而减少. 这说明节点挫伤比例对策略质地存在着径直影响, 这是因为跟着节点挫伤比例的增大, 策略寻优的过程变得愈发复杂. 本文提议的基于搜索的自稳妥决策方法在不同的挫伤比例下, 策略质地均优于基于功令和基于效能两种方法. 在挫伤比例小于等于40%的情况下, 3类方法的策略质地值之间各异较小, 在挫伤大于等于50%情况下, 基于功令的策略质地数则出现大幅贬抑, 显耀低于其他两类的方法. 这是因为基于功令的方法是弗成依据刻下场景动态产生功令, 其策略质地也就有所下落. 在策略质地值接近的情况下, 本文方法在策略耗时上低于基于效能的方法, 这是因为基于效能的方法在实施过程中每次齐需经过5次打算, 因此比较耗时. 依据上述对比, 不错得出, 本文方法产生的策略质地和策略实施耗时上明白优于其他两种方法, 诠释了本文方法策略质地和时刻支拨上的优厚性.
5 联系职责本文主要分析了当今主流自稳妥决策方法的研究近况偏执在指控系统中的应用情况, 并重心将本文职责与当今存在的基于搜索的自稳妥决策方法进行了对比分析.
5.1 自稳妥决策方法偏执在指控领域的应用情况Lalanda在《Autonomic Computing》一书中, 按照自稳妥决策方法所聘任的学问类型, 将当今面向通用领域的主流决策方法分为基于功令/策略、模子、效能函数、方针共4种[18].
基于功令/策略的自稳妥决策方法通过功令匹配或功令推理的口头, 得到适合的自稳妥策略. 由于该方法的处理效率极高[19], 因此该方法已被庸俗应用于指控系统中, 直到当今齐在指控系统中饰演紧要脚色. 中电28所金欣等东谈主提议了一种基于功令的功能模块动态加载方法, 竣事了指控系统各种化需求的活泼重构[15]. 但是该类方法存在一个致命的弱势问题, 即需要静态界说通盘的候选策略, 并事前细目调整决议和事件间的映射关系. 针对该问题, 当今国表里也存在不少更正的想路, 主如果通过对策略自己竣事在线修改与精化调整.
基于方针的自稳妥决策方法, 以系统方针四肢决策方针, 将策略对方针的粗野进程四肢比较不同策略优劣性的揣测模范, 从而取舍出最合适系统方针要求的自稳妥策略. 联系研究职责可分为两类. 一类是通过建立自稳妥需求模子, 并以此为依据建立自稳妥策略[20]. 而另一类则通过揣测已有自稳妥策略对方针的粗野进程, 从而评判并取舍出最优的自稳妥策略[21]. 在指控领域, 存在部分聘任蚁群算法、与或树搜索方法开展的联系研究职责, 但大多数方法仍只接洽对单一方针问题或通过固定优先级的口头处理多方针问题.
效能函数指系统进行自稳妥调整后所能得到方针完成情况(即收益)与自稳妥调整导致的支拨之间(即资本)的关系函数. 基于效能函数的自稳妥决策方法, 以系统效能四肢决策方针, 聘任效能函数揣测不同自稳妥策略调整系统后所能增多的系统效能, 从而取舍出最优自稳妥策略[22,23]. 与基于方针的方法访佛, 在指控领域多数研究聘任主要素分析法、端倪分析法或无极概述评价法打算大众对效能的评分, 并据此取舍最优策略. 该过程仍需依赖较多的大众告诫, 无法灵验在线应酬未知变化.
基于模子的方法自己凭证对模子的联系性, 又不错分为模子联系方法和模子无关方法(model free method). 基于模子的方法, 通过建立模子并获取系统现象信息, 竣事对系统现象趋势的预计与分析, 常用的模子包括深度神经采集[24]、强化学习[25]等. 连年来新兴的基于马尔科夫决策过程[26]、基于贝叶斯采集的自稳妥决策方法[27]本色上也属于基于模子的决策方法. 这类方法需要建立圆善系统模子且不休试错, 支拨较大, 当今并未被庸俗应用于指控领域.
5.2 基于搜索的自稳妥决策方法当今, 基于搜索的软件工程已成为软件工程领域的研究热门之一. 可是, 将该表面应用于自稳妥软件的研究仍处于探索阶段[28], 主要职责多关注于自稳妥软件系统的框架想象[29-31]、体紧缚构的优化[32-34]、软件测试[35-37]、开发过程和职责量估量[38]以及法度演化和开荒[39,40]等方面. 举例, MOSES框架是一个面向作事打算的自稳妥系统优化框架[31], Duse提议的对于自稳妥软件体紧缚构和基于搜索软件工程结合的研究[6]等. 刻下, 鲜有将自稳妥决策与基于搜索的软件工程结合的研究.
与本文最联系的研究职责是由好意思国卡内基梅隆大学(CMU)的Coker团队[4]提议的, 基于决策树体式的复合自稳妥决策方法. 该方法接洽到软件变化之间的存在关系且存在动态优先级变化的特质, 聘任进化编程结合基础的自稳妥策略进行策略生成. 可是, 该方法举座过程聘任静态离线的运行口头[8], 无法处理实时性较强的决策问题. 而本文提议的决策方法不错动态的形成决议空间, 依据实时的软件变化竣事在线决策, 梗概更好地适用于具备较大动态性和不细目性的自稳妥软件系统.
6 结 论四肢国防与队列信息化建设中的紧要系统, 指控系统亟需建立应酬动态运行环境和多变任务需求的自稳妥过程, 以确保系统可耐久灵验踏实运行. 自稳妥决策方法四肢该过程中的紧要要道, 应具备在线衡量决策智商. 因此, 本文提议了一种基于并行搜索优化的指控系统自稳妥决策方法. 该方法凭证自稳妥决策问题特征, 将自稳妥决策问题建模为搜索优化问题, 并聘任遗传算法与粒子群算法, 竣事针对同期发生的多个变化进行在线衡量的方针. 而且, 本文聘任并行遗传算法和后优化表面, 结合作战需求与率领员偏好, 分别竣事了并行化的自稳妥决策方法与策略多方针排序法, 以惩办该方法在指控系统中实践应用时存在的搜索效率保险、策略择优取舍问题. 实验驱逐标明, 本文提议的决策方法在模拟环境下梗概在线产生应酬挫伤接替典型指控场景的衡量策略, 达到灵验携带系统开展调整行动, 竣事对环境变化与任务变更的动态反映的方针.
天然chatgpt 文爱, 本文所提议的决策方法还是存在好多值得探讨的职责: (1)本文所提议的方法在自稳妥建模阶段对大众意见有一定依赖性, 需要大众事前给出建议的方针函数、经管函数以及可变点的取值范围. 本文后续接洽构建指控领域学问图谱以扶持自稳妥问题建模, 并通过实验口头获取可变点的取值与效果的关系, 通过算法打算阈值. (2) 跟着系统界限和不细目的高潮, 导致决议空间将不休增大. 若何通过优化算法提高敛迹效率以粗野系统的实时性需求, 是本文后续需要接洽的一个问题. (3) 本文后续接洽建立策略模板, 对搜索产生的驱逐进行建模, 以竣事在不同运行环境下的策略移动, 减少系统支拨. (4) 为保证策略的灵验性, 本文后续但愿通过引入强化学习, 凭证反馈信息对调整策略进行在线修正.