iso file download
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202211056596.8 (22)申请日 2022.08.31 (71)申请人 中国船舶集团有限公司第七二 三研 究所 地址 225001 江苏省扬州市广陵区南河下 26号 (72)发明人 童真  (74)专利代理 机构 南京理工大 学专利中心 32203 专利代理师 薛云燕 (51)Int.Cl. G01S 7/36(2006.01) G06N 20/00(2019.01) (54)发明名称 一种基于分层强化学习的雷达认知对抗方 法 (57)摘要 本发明公开了一种基于分层强化学习的雷 达认知对抗方法, 该方法为: 首先将雷达认知对 抗过程划分为上层宏观任务, 确定雷达认知对抗 过程中各宏观任务之间的连接关系, 并关联雷达 认知对抗过程中各任务相关的状态集合和其对 应的动作集合; 然后将雷达认知对抗过程进行任 务分解, 得到动作价值函数、 状态价值函数、 完成 函数; 接着进行雷达认知对抗的策略迭代, 得到 当前状态的最优对抗策略; 再进行雷达认知对抗 的策略搜索, 更新状态价值函数和完成函数, 得 到当前最优的动作价值函数; 重复进行策略迭代 和策略搜索, 直到雷达认知对抗策略趋于收敛。 本发明降低了雷达认知对抗策略生成的复杂 度, 提升了策略学习的效率。 权利要求书3页 说明书5页 附图2页 CN 115327489 A 2022.11.11 CN 115327489 A 1.一种基于分层强化学习的雷达认知对抗方法, 其特 征在于, 包括以下步骤: 步骤1、 将雷达认知对抗过程划分为上层宏观任务, 确定雷达认知对抗过程中各宏观任 务之间的连接关系; 步骤2、 构建雷达认知对抗过程中的状态动作转移关系, 关联雷达认知对抗过程中各任 务相关的状态集 合和对应的动作集 合; 步骤3、 通过贝尔曼方程将雷达认知对抗过程进行任务分解, 得到动作价值函数、 状态 价值函数、 完成函数; 步骤4、 采用 ε ‑greedy的方式进行雷达认知对抗的策略迭代, 依概率ε进行随机策略探 索, 依概率1‑ε根据动作价 值函数, 得到当前状态的最优 对抗策略; 步骤5、 通过深度优先搜索, 进行雷达认知对抗的策略搜索, 更新状态价值函数和完成 函数, 得到当前最优的动作价 值函数; 步骤6、 重复步骤4~步骤5, 直到雷达认知对抗策略趋 于收敛。 2.根据权利要求1所述的基于分层强化学习的雷达认知对抗方法, 其特征在于, 步骤1 所述的将雷达认知 对抗过程划分为上层宏观任务, 确定雷达认知 对抗过程中各宏观任务之 间的连接关系, 具体如下: 将雷达认知对 抗过程的总体任 务M0划分为上层宏观任 务{M1, M2, ..., Mi}, 确定雷达认知 对抗过程中各宏观任务Mi之间的连接关系。 3.根据权利要求2所述的基于分层强化学习的雷达认知对抗方法, 其特征在于, 所述将 雷达认知对抗过程的总体任务M0划分为上层宏观任务{M1, M2, ..., Mi}, 确定雷达认知对抗 过程中各宏观任务Mi之间的连接关系, 具体如下: 步骤1.1、 自顶向下进行雷达认知对抗过程的多层次任务划分, 将雷达认知对抗的总体 任务M0分解为态势感知任务M1、 干扰决策任务M2、 效能评估 任务M3三个上层任务; 步骤1.2、 将态势感知任务M1向下划分为 包含信号处理基础操作的态势感知具 体任务; 步骤1.3、 将干扰决策任务M2向下划分为干扰策略推理任务M4、 干扰资源调度任务M5和 干扰实施任务M6三个子任务, 然后将干扰策略推理任务M4向下分解为 策略推理的 基本动作, 干扰资源调度任务M5向下分解为 资源调度的基本动作, 干扰实施任务M6 向下分解 为 干扰实施的基本动作; 步骤1.4、 将干扰效能评估 任务M3向下划分为 干扰效果评估的具体任务。 4.根据权利要求3所述的基于分层强化学习的雷达认知对抗方法, 其特征在于, 步骤2 所述的关联 雷达认知对抗过程中各任务相关的状态集 合和对应的动作集 合, 具体如下: 构建雷达认知对抗过程中的状态动作转移关系, 关联雷达认知对抗过程中各任务Mi相 关的状态集 合{sij|sij∈Si}和对应的动作集 合{aij|aij∈Ai}。 5.根据权利要求4所述的基于分层强化学习的雷达认知对抗方法, 其特征在于, 所述构 建雷达认知对抗过程中的状态动作转移 关系, 关联雷达认知对抗过程中各任务Mi相关的状 态集合{sij|sij∈Si}和对应的动作集 合{aij|aij∈Ai}, 具体如下: 步骤2.1、 设定状态s0、 s1表示目标雷达处于的初始感知状态, 包含的感知动作为a0、 a1、 a2;权 利 要 求 书 1/3 页 2 CN 115327489 A 2步骤2.2、 设定状态s2表示干扰策略推理任务M4的任务阶段, 包含动作a3、 a4、 a5, 通过a3 与a4干扰策略推理任务M4可能折返到初始感知状态, 通过a5干扰策略推理任务M4则会进入 干扰资源调度任务M5; 设定状态s3处于干扰资源调度任务M5的状态, 包含动作a6与a7, 直至干 扰资源分配成功进入干扰实施任务M6; 状态s0~s3表示干扰实施前的本方内部状态; 设定状 态s4~s7表示干扰实施任务M6的状态, 对应的动作为a8~a15; 步骤2.3、 设定状态s8表示干扰效 能评估任 务M3的状态, 对应的评估动作为a16, 最终进入 终止状态, 从而完成一轮认知对抗。 6.根据权利要求5所述的基于分层强化学习的雷达认知对抗方法, 其特征在于, 步骤3 所述的通过贝尔曼方程将雷达认知对抗过程进行任务分解, 得到动作价值函数、 状态价值 函数、 完成函数, 具体如下: 通过贝尔曼Bellman方程将对 抗过程进行任 务分解, 得到动作价值函数Qπ(i, s, a)、 状态 价值函数Vπ(i, s)、 完成函数Cπ(i, s, a), 认知雷达对抗过程中状态与任务之间的联系如下: Qπ(i, s, a)=Vπ(s, a)+Cπ(i, s, a) 其中状态价值函数Vπ(i, s)表示在状态s下完成任务i的期望 收益; 动作价值函数Qπ(i, s, a)表示在任务i中状态s下执行子任务a获得的期望收益; 完成函数Cπ(i, s, a)表示在子任 务a完成后, 继续完成上级任务 i获得的期望收益。 7.根据权利要求6所述的基于分层强化学习的雷达认知对抗方法, 其特征在于, 步骤4 所述采用 ε ‑greedy的方式进行雷达认知对抗的策略迭代, 依概率 ε进 行随机策略探索, 依概 率1‑ε根据动作价 值函数, 得到当前状态的最优 对抗策略, 具体如下: 采用 ε‑greedy的方式进行认知对抗的策略迭代, 依概率ε进行随机策略探索, 依概率1 ‑ ε根据动作价 值函数argmaxaQ(i, s, a), 得到当前状态s的最优 对抗策略π*(i, s): 情形1: 依概 率 ε进行随机策略选择, 防止策略陷入到局部最优值中; 情形2: 依概率1 ‑ε根据动作价值函数Qπ(i, s, a), 按照 π*(i, s)=argmaxaQ(i, s, a), 执行 任务动作a。 8.根据权利要求7所述的基于分层强化学习的雷达认知对抗方法, 其特征在于, 步骤5 所述的通过深度优先搜索, 进 行雷达认知对抗的策略搜索, 更新状态价值函数和完成函数, 得到当前最优的动作价 值函数, 具体如下: 通过深度优先搜索, 进行雷达认知对抗过程的策略搜索, 更新状态价值函数Vπ(i, s)与 完成函数Cπ(i, s, a), 得到当前最优的动作价 值函数Qπ(i, s, a), 具体为: 情形1: 当策略任务i为最底层不可分割的基础操作时将直接执行, 依据如下方法更新 任务的状态价 值函数: Vt+1(i, s)=(1 ‑αi)·Vt(i, s)+αi·rt 其中αi表示i任务的学习速率, rt是动作执 行的直接奖励值; 情形2: 当策略任务i是上层组合任务时, 将 沿着各层最优子任务a安排的路径进行策略 的深度搜索, 按照如下 方法更新策略搜索路径中的完成价 值函数: Ct+1(i, s, a)=(1 ‑αi)·Ct(i, s, a)+αi·γN·Vt(i, s′) 其中γ是 奖励折扣因子, N是当前任务的层级深度。 9.根据权利要求8所述的基于分层强化学习的雷达认知对抗方法, 其特征在于, 步骤6 所述的重复步骤4~步骤5, 直到雷达认知对抗策略趋 于收敛, 具体如下:权 利 要 求 书 2/3 页 3 CN 115327489 A 3

.PDF文档 专利 一种基于分层强化学习的雷达认知对抗方法

文档预览
中文文档 11 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共11页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于分层强化学习的雷达认知对抗方法 第 1 页 专利 一种基于分层强化学习的雷达认知对抗方法 第 2 页 专利 一种基于分层强化学习的雷达认知对抗方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 13:00:19上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。