空间映射(SM)是一种公认的加速电磁优化的方法。现有的SM方法大多基于顺序计算机制。本文提出了一种用于电磁优化的并行SM方法。在该方法中,每次迭代开发的代理模型被训练以同时匹配多个点的精细模型。多点训练和SM使代理模型在比标准SM更大的邻域内有效。本文提出的多点代理模型训练方法本质上适合于并行计算,并通过并行计算实现。这包括并行的多个精细模型评估和使用并行算法的多点代理训练。与标准模型相比,该方法进一步减少了模型的迭代次数,加快了优化过程。通过三个微波滤波器实例说明了该技术。
SM优化公式
标准SM 1:是指在每次迭代[1]中使用单点精细模型数据训练代理模型的公式
标准SM 2:是指每次迭代中的代理模型都用当前和之前所有迭代积累的精细模型数据进行训练的公式
并行SM优化算法
所提出的优化将被制定为一个框架与一个粗模型的框架,开发代理模型使用并行处理,并使用代理模型进行设计优化。粗模型选择与现有的SM方法相同。下面提出了一种使用并行计算方法的替代建模。
在多点上的代理建模
在该方法中,为了建立一个快速、准确的代理模型,以准确地**表示较大邻域内的精细模型,我们开发了代理模型来在多个点上匹配精细模型。对于每个多个点**,都应该进行一次良好的模型评估。在这些点上的精细模型响应数据,用于训练代理模型。这类点的数量随着设计变量的数量的增加而增加。我们选择了一种抽样方法来减少点的数量。最常见的两种样本分布是网格分布和星形分布。
在实验中 candes等人对信号在傅里叶空间的变换系数进行极坐标星形抽样,获得了非常好的还原效果
当设计变量数目n较小时,网格分布抽样方法是可行的。然而,当n变大时,网格分布导致数据点呈指数增长。此外,如此大的数据量也使得训练的计算成本更高。因此,星形分布是首选[23],因为随着n的增加,点的数量呈线性增长。
在我们提出的SM公式中,每次迭代都使用星形分布。在第6次迭代中,我们在代理模型Xk的最优解周围生成了多个星形分布的样本点。图1显示了我们提出的多点采样方法来训练代理模型。在本文中,我们将Xk作为第6次迭代中星形分布的中心点。我们沿每个维度扰动中心点两次,一次向正方向,一次向负方向。根据粗模型灵敏度确定各设计参数的偏差百分比。按照星形分布策略,我们在中心周围找到精细模型的其他2n个点。
设Xk(1),Xk(2),…Xk(2n+1),表示以Xk(1)为中心的起始分布的2n+1个点,即Xk(1)=Xk,其余2n个点位于该中心的邻域。当优化过程移动到下一次迭代时,星形分布的中心从Xk移动到Xk+1。所有其他的星形分布中的点也相应移动,如图所示
如图1所示。
使用并行方法计算
精细的模型数据生成通常只占总计算时间的主要计算负担,如果我们使用顺序计算方法,数据样本的数据生成需要乘以精细模型评估的计算时间
提出了一种使用多个处理器并行生成精细模型数据的方法。利用并行处理器在这些星形分布点上进行了精细的模型评估。并行加速因子和并行效率作为我们的优化方法的性能标准的一部分。开销成本与每次迭代中的数据样本的生成相关联,例如,并行运行的多个处理器之间的通信时间。设加速为单个处理器上的数据生成时间与并行处理器上的数据生成时间之间的比率
在我们提出的方法中,精细模型数据生成使用并行计算方法来生成EM数据。同样,在优化代理模型以匹配2n+1个点的精细模型数据的训练过程中,也使用并行计算来减少建模时间,从而在优化过程中实现进一步的加速。在训练过程中,必须对所有数据采样点迭代求代理模型与数据之间的训练误差,以及该误差相对于映射参数的导数。这个计算是代理训练计算的主要部分。因此,我们将多点训练数据分成2n+1个独立的训练数据集,由2n+1个处理器并行使用。并行计算2n+1个训练误差及其导数,然后合并得到总训练误差和总训练误差的导数。训练过程的并行加速和并行效率的定义与精细模型数据的并行生成相似。
并行SM优化算法
在本节中,我们将描述我们所提出的并行SM优化的总体算法。
首先,用单元映射初始化映射函数,
使用单元映射,初始代理模型等于粗模型。然后利用粗模型进行设计优化,通过求解找到粗模型x*©的初始最优解
其中,表示与粗输入变量向量对应的粗模型的响应向量
用单元映射初始化代理模型→粗模型设计优化:寻找初始代理模型的最优解