0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于MADDPG迭代的编队协同控制框架

AI智胜未来 来源:防务快讯 2024-04-20 09:30 次阅读

作者:文永明,李博研,张宁宁,李小建,熊楚依,刘洁玺

采用深度强化学习算法解决了多智能体编队协同控制问题。基于多智能体深度确定性策略梯度算法(MADDPG)构建分布式编队控制架构,并结合集中式训练-分布式执行框架进行求解。针对多智能体环境不稳定问题,依据单个智能体的局部信息构建对应奖励函数。针对大规模编队协同控制,实现了多个多智能体环境下的算法训练与评估。试验结果表明,应用该算法的多智能体能够完成协同任务,且所有智能体都可得到合理的协同控制策略。

0引言

多智能体系统(MAS)由若干单独控制的、通过无线网络连接的智能体构成,在诸如控制、编队、分配、博弈和分布式估计等问题中广泛研究并取得了一定进展。在已知系统动力学模型基础上,研究者们对多智能体系统基础理论开展了大量研究。传统的系统识别试验依据输入-输出数据确定分析模型,但在实际应用中,复杂过程建模困难且昂贵。此外,传统的控制方法在与复杂环境交互时存在局限性,固定策略不能应用于不同环境或任务场景中。深度强化学习关注一个智能体的策略模型,借鉴了不完全可知马尔可夫决策中的最优控制思想,智能体通过与环境交互来最大化长期累积奖励,控制优化与策略学习之间存在着紧密联系。因此,深度强化学习技术在系统控制方面存在广阔的应用前景。 深度强化学习算法分为基于值的强化学习算法和基于策略的强化学习算法2类。

1) Q学习及深度Q学习算法是最常用且直接的基于值的算法,它通过动作值函数来获得最优策略。通过每个智能体学习一个独立的最优方程,将基于值的算法直接应用于多智能体系统。然而,在学习过程中邻居智能体更新时,当前智能体的奖励和状态转移等信息也会发生改变。在这种情况下,环境就会出现不稳定性问题,并且也不再满足马尔可夫性,最终导致基于值的算法的收敛性得不到保证。

2) 基于策略的算法是另一类深度强化学习算法,该类算法通过独立的神经网络来近似随机策略。执行者-评估者 (Actor-Critic, AC) 算法结合了基于值和基于策略的算法,其中执行者代表生成动作的策略函数,评估者代表评价动作奖励的值逼近器。深度确定性策略梯度算法(DDPG)是一种无模型的AC算法,它结合了确定性策略梯度和深度Q学习算法,其中执行者和评估者均用深度神经网络进行逼近。多智能体深度确定性策略梯度方法(MADDPG)将DDPG扩展到一个多智能体协同完成的任务环境,在这个环境中智能体智能获得局部信息。MADDPG是一个针对多智能体场景重新设计的AC模型,旨在解决不断变化的环境和多智能体间的复杂问题。

1理论基础

1.1 代数图论

5f2fa5f8-fe6b-11ee-a297-92fbcf53809c.png

5f3f9454-fe6b-11ee-a297-92fbcf53809c.png

1.2 问题描述

5f4c854c-fe6b-11ee-a297-92fbcf53809c.png

2基于MADDPG迭代的编队协同控制框架

2.1 传统控制设计

5f722932-fe6b-11ee-a297-92fbcf53809c.png

2.2 编队协同控制算法框架设计

5f89d3c0-fe6b-11ee-a297-92fbcf53809c.png

5fa56b30-fe6b-11ee-a297-92fbcf53809c.png

图1 编队控制算法框架

2.3 学习目标设计

5fb3d940-fe6b-11ee-a297-92fbcf53809c.png

5fc6fdb8-fe6b-11ee-a297-92fbcf53809c.png

2.4 编队协同控制算法流程

5fd67cf2-fe6b-11ee-a297-92fbcf53809c.png

5fe6f294-fe6b-11ee-a297-92fbcf53809c.png

3试验结果与分析

3.1 试验设置

600a7354-fe6b-11ee-a297-92fbcf53809c.png

图2 试验交互拓扑图

3.2 结果与分析

本文在3.1节展示的环境中运行并评估本文算法,仿真结果如图3所示,图4给出了智能体训练前后运动轨迹对比。 4个智能体的长期累计奖励得分如图3(a)所示。在学习过程中得分是逐渐增加的,并且在50 000次迭代后收敛到6以内,这意味着MAS在50 000次迭代后可以有效消除初始误差;同时,这个得分也意味着MAS实现理想编队和到达目标位置所需的代价。图3(b)是智能体最后50次训练收敛时的稳定奖励。由图可见,4个智能体可以快速实现稳定编队,且跟踪误差同样意味着奖惩可以在1 s内收敛至接近于0。 4个智能体在训练前后的初始、1 s、2 s、3 s和4 s编队状态如图4所示。图中蓝色点为领航者,对应图2中0号蓝色点,粉色、灰色和绿色点分别对应图2中1号粉色点、2号紫色点和3号橙色点。试验结果表明,由于缺乏环境的先验知识,MAS在首次尝试时会偏离队形。当智能体通过在环境中反复试错积累经验,MAS会收敛形成一个稳定的编队。最终,领航者可以到达目标位置且追随者可以与领航者保持编队位置稳定。

601ba912-fe6b-11ee-a297-92fbcf53809c.png

图 3 试验环境下仿真结果

60288ec0-fe6b-11ee-a297-92fbcf53809c.png

图 4 智能体训练前后状态对比

4结束语

本文采用多智能体策略梯度算法,结合集中训练和分布执行的框架,研究并求解多智能体协同编队控制问题,设计构建了一种基于多智能体深度确定性策略梯度算法的分布式编队控制框架,并给出了算法的训练流程。通过对多智能体合作环境的仿真训练与评估,验证了本文算法的有效性。试验结果表明,本文算法能够使智能体在动力学模型先验知识未知的情况下协同完成任务,有助于解决数学模型过于复杂而难以识别的控制问题。

审核编辑:黄飞

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4759

    浏览量

    100475
  • 算法
    +关注

    关注

    23

    文章

    4595

    浏览量

    92571
  • 无线网络
    +关注

    关注

    6

    文章

    1423

    浏览量

    65857
  • 深度学习
    +关注

    关注

    73

    文章

    5485

    浏览量

    120937

原文标题:基于深度强化学习的多智能体编队协同控制

文章出处:【微信号:AI智胜未来,微信公众号:AI智胜未来】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    请问迭代器的实现原理是什么?

    什么是集合框架?LIST接口的实际应用?迭代器的实现原理是什么?
    发表于 11-04 09:45

    【飞控开发高级篇7】疯壳·开源编队无人机-编队飞行

    COCOFLY教程——疯壳无人机·系列编队飞行图1 一、编队飞行 COCOFLY 支持编队飞行,编队飞行需要依托编队的图形码地图以及CO
    发表于 06-14 18:41

    【飞控开发高级教程7】疯壳·开源编队无人机-编队飞行

    COCOFLY教程——疯壳·无人机·系列编队飞行 图1 一、编队飞行 COCOFLY 支持编队飞行,编队飞行需要依托编队的图形码地图以
    发表于 07-25 19:06

    【疯壳·无人机教程29】开源编队无人机-编队飞行

    COCOFLY教程——疯壳·无人机·系列编队飞行图1 一、编队飞行 COCOFLY 支持编队飞行,编队飞行需要依托编队的图形码地图以及CO
    发表于 09-05 17:40

    多机器人的积分滑模编队控制_钱殿伟

    多机器人的积分滑模编队控制_钱殿伟
    发表于 01-08 13:26 1次下载

    一种欠驱动船舶编队滑模鲁棒控制方法_杨震

    一种欠驱动船舶编队滑模鲁棒控制方法_杨震
    发表于 01-08 13:58 1次下载

    无线通信网络的多智能小车编队控制系统_申忠宇

    无线通信网络的多智能小车编队控制系统_申忠宇
    发表于 01-12 22:26 3次下载

    无线通信网络的多小车编队控制系统

    无线通信网络的多小车编队控制系统
    发表于 09-01 10:51 3次下载
    无线通信网络的多小车<b class='flag-5'>编队</b><b class='flag-5'>控制</b>系统

    基于二层邻居信息的多智能体系统编队控制

    为了加快多智能体编队控制过程中的状态收敛,提出基于多跳式网络技术的编队控制方法。首先将多智能体系统(MAS)中的每个智能体之间的相对速度偏移引入到
    发表于 11-29 15:34 3次下载
    基于二层邻居信息的多智能体系统<b class='flag-5'>编队</b><b class='flag-5'>控制</b>

    基于迭代填充的内存计算框架分区映射算法

    针对内存计算框架Spark在作业Shuffle阶段一次分区产生的数据倾斜问题,提出一种内存计算框架迭代填充分区映射算法(IFPM)。首先,分析Spark作业的执行机制,建立作业效率模型和分区映射
    发表于 12-05 16:32 0次下载
    基于<b class='flag-5'>迭代</b>填充的内存计算<b class='flag-5'>框架</b>分区映射算法

    多无人机协同编队飞行控制的关键技术和发展展望

    搭建满足多无人机协同编队仿真的多无人机仿真平台,对于加快开发周期,降低多无人机编队试验成本,具有十分重要的意义。当前国内外已有一些针对无人机编队或多无人机仿真系统的研究,主要分为如下4
    发表于 07-26 10:09 9663次阅读
    多无人机<b class='flag-5'>协同</b><b class='flag-5'>编队</b>飞行<b class='flag-5'>控制</b>的关键技术和发展展望

    基于改进一致性的多无人机编队控制算法

    基于改进一致性的多无人机编队控制算法
    发表于 06-22 16:02 16次下载

    基于虚拟结构的机器人编队控制方法

    目前,实现多 AUV 系统编队航行的控制方法主要包括基于领航者-跟随者的方法。
    的头像 发表于 10-10 17:39 2634次阅读

    集群无人艇协同微波网络通信技术探讨

    通信互联 、协同控制、工业化量产的系统工程; 探讨了海上无人艇微波通信组网的解决方案,为无人艇编队在军事领域的深入研究提供了一定的参考价值。 
    发表于 05-18 09:49 0次下载

    想做无人机编队表演?需要掌握哪些?

    最近”低空经济“火了,嵌入式工程师应该学习哪些技术栈才能做无人机编队表演?一、什么是无人机编队表演?无人机编队表演是一种通过多架无人机协同飞行和执行各种精确动作和
    的头像 发表于 03-29 08:09 977次阅读
    想做无人机<b class='flag-5'>编队</b>表演?需要掌握哪些?