Issue |
JNWPU
Volume 42, Number 6, December 2024
|
|
---|---|---|
Page(s) | 1030 - 1038 | |
DOI | https://doi.org/10.1051/jnwpu/20244261030 | |
Published online | 03 February 2025 |
Decentralized and autonomous behavior decision-making for UAV cluster
面向去中心化的集群自主行为决策研究
1
School of Astronautics, Northwestern Polytechnical University, Xi’an 710072, China
2
Shanghai Institute of Mechanical and Electrical Engineering, Shanghai 201109, China
Received:
23
October
2023
It is difficult for conventional methods like the diagram theory in a complex environment to carry out modeling and calculation so as to make large-scale cluster behavior decisions. Hence, this paper studies small fixed wings and establishes the decentralized behavior decision-making model for a UAV cluster that has communication limitations and scale ceiling effects. The idea of swarm intelligence is combined with the decoupling multi-agent deep deterministic strategy gradient (DE-MADDPG) for the constructed model to do adaptive learning. Finally, the optimal behavior decision of the UAV cluster is made. Simulations are carried out to verify the model. The consistent movement of the UAV cluster and the maneuvering obstacle avoidance behavior in complex environments are realized. Compared with the MADDPG, the DE-MADDPG exhibits superior precision and real-time capability.
摘要
为解决复杂环境下图论等传统方法在面临大规模集群行为决策时难以建模和计算的问题, 以小型巡飞弹为研究对象, 针对无人机集群通信受限和规模天花板效应等挑战, 建立了去中心化的无人机集群行为决策模型, 结合群体智能的思想和解耦型多智能体深度确定性策略梯度(DE-MADDPG)策略, 对构建的模型进行自适应学习, 得出无人机群体的最优行为决策。通过开展仿真验证, 实现了无人机集群的一致性运动以及复杂环境下的机动避障行为。相比于MADDPG, DE-MADDPG具有更强的准确性和实时性。
Key words: UAV cluster / autonomous behavior decision-making / multi-agent deep reinforcement learning / decentralization / consistent movement / obstacle avoidance
关键字 : 无人机集群 / 自主行为决策 / 多智能体深度强化学习 / 去中心化 / 一致性运动 / 避障
© 2024 Journal of Northwestern Polytechnical University. All rights reserved.
This is an Open Access article distributed under the terms of the Creative Commons Attribution License (https://creativecommons.org/licenses/by/4.0), which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.
近年来, 小型化、低成本和智能化成为无人装备的发展趋势。通过集群技术的加持, 具有以上特点的无人机可以发挥极高的效能并完成复杂任务。而信息不完备条件下对战场动态态势的快速自主响应是无人机集群完成复杂任务的关键。随着集群规模的增大、飞行任务的复杂和高风险场景的应用, 为了规避被破网断链的风险, 需要集群具备去中心化能力, 提升自主化和智能化水平, 并通过协同以适应战场态势的复杂性和动态性[1–2]。
在无人系统中, 行为自主决策主要是利用无人机感知到的态势信息使其决策出最优行为, 并反馈到运动控制系统中指导无人机达到相应的控制效果[3]。传统的“态势表征-任务构建-规划架构-群体涌现”的结构难以适应快速动态变化的战场环境[4–6]。并且在规模较大时建模较为困难, 不利于集群生成最优决策[7]。
多智能体深度强化学习(multi-agent deep reinforcement learning, MDRL)作为近几年来新兴的一种智能算法, 不仅可以处理复杂的非线性映射关系,还能在智能体只获得部分观测信息的情况下, 将感知到的信息进行融合, 从而指导每个智能体做出最优的动作。
文献[8]利用多智能体深度强化学习对无人机集群行动进行了建模, 根据战场态势的变化无人机集群提供灵活的飞行控制。文献[9]设计了一种基于规则引导和目标导向的强化学习方法, 使集群对抗在复杂场景下具有较高的对抗效率。上述研究均是基于无人机机间具有可靠的通信, 能够实时交换全局信息,实际应用效果可能不太理想。文献[10]设计了一种适用于自主编队任务的混合奖励分配机制, 有效解决了全局奖励分配不均和个体“自私策略”的问题, 提高了无人机自主编队任务的稳定性。但只能完成特定数量以及队形的无人机编队, 难以应用到大规模分布式的集群行为决策。
基于以上分析, 本文以大规模无人机集群飞行的安全控制为出发点, 基于MDRL对集群智能自主决策方法进行了研究, 并落脚于信息不完备条件下大规模无人机集群的一致性运动与避障控制等具体问题, 提出了一种基于DE-MADDPG的无人机集群自主行为决策模型, 通过将群体智能[11]与DE-MADDPG相结合, 分离了全局奖励和局部奖励, 引导无人机更快地学习有效策略。使集群不依赖于中心化控制,同时能够在复杂环境达到大规模一致性自主运动, 使无人机拥有足够的自主性及智能性来适应复杂未知的战场环境[12–13]。
1 去中心化的集群自主行为决策模型
1.1 无人机运动学模型
巡飞弹是一种通过弹射、炮射或抛投等发射方式发射的可折叠机翼的便携固定翼无人飞行器, 通过搭载不同的载荷, 能够执行侦察、毁伤评估、中继通信、目标指示、精确打击和空中警戒等任务, 所以巡飞弹是大规模无人机集群作战的理想载体[14]。因此, 本文将重点关注小型固定翼无人机集群。
在本研究中, 仅考虑无人机做水平运动的情况, 即无人机在限定空域同一高度层内飞行。这样假设主要有2个原因:
1) 增加无人机在无控条件下的碰撞概率, 精确有效地验证算法性能; 提高无人机的集群行为在二维平面内观察的准确性。
2) 在不牺牲通用性的前提下对真实飞行情境进行模拟, 固定翼无人机在执行协同任务时, 通常会被动力系统和载荷所限制, 因此常采用同一高度的飞行情景。
故而得到二维平面下的无人机运动学模型 =f(X (t), U (t)),如(1)式所示。
式中, (x(t), y(t), ϕ(t))= X (t)是无人机在t时刻的状态向量, 是在惯性坐标系下无人机的位置表示, ϕ(t)为无人机的航向角;V(t)为无人机空速;控制输入为U (t)=[u(t), ω(t)]T, u(t)和w(t)分别为t时刻期望的航向线速度和角速度。
固定翼无人机在建模时需要考虑相应的速度约束,即存在可达的最高速度和最低速度的限制。同时, 在二维平面中, 还需要将其航向角速度进行限幅, 如(2)式所示。
式中:vmin为无人机允许的最小空速;vmax为最大空速;ωmax为无人机允许的最大航向角速率。
进一步, 考虑到实际的离散过程, 假设采样周期等于控制周期ΔT, 则用二阶龙格库塔方法,得到(1)式的离散化形式为
展开得
(4) 式为无人机的离散化运动学方程, 图 1为无人机、障碍物和目标的位置关系。Pi=(xi, yi)为无人机i的位置, PO为障碍物位置, PT为目标位置, ϕi为无人机航迹角, θi为无人机速度方向与目标期望方向的偏差角, 假设机载的测距设备可以获得与障碍物的最近距离DiO和相对角度ϕi。
![]() |
图1 无人机、障碍物和目标的位置关系图 |
1.2 去中心化决策模型
为满足本文研究的去中心化且信息不完备的情况, 现给出如下定义:
定义1 每一架无人机的运动性质都是一致的, 同时它们的作用和地位也是等同的, 即没有领航者或者虚拟领航者。
定义2 无人机只能在一定的区域内, 在没有遮挡的情况下与周围的个体进行快速且可靠的通信, 并且进行状态信息交换。如图 2所示。定义UAVi的邻居个体的序号集为
![]() |
图2 无人机通信受限示意图 |
式中, 无人机的感知半径δ>0, 两无人机之间的欧式距离为‖Pi-Pj‖。
定义3 无人机只能通过外部传感器对周围有限范围内的环境进行感知, 个体之间无法进行环境信息的共享。
每架无人机作为智能体可以通过局部信息感知获取附近无人机的状态信息, 为自身独立决策提供有力支持, 无人机自主行为决策示意图如图 3所示。
![]() |
图3 无人机集群自主决策流程 |
上述定义满足了集群在无领航者的情况下通过局部感知来达成完全分布式的行为决策研究。并且可以推断出算法性能可以适用于大规模的集群决策。
2 基于DE-MADDPG的无人机集群行为决策
2.1 多智能体强化学习
MDRL是一项通过不断试错进行学习的技术,其遵循马尔科夫决策过程[12],因此,对马尔科夫决策过程进行建模〈s, a1, a2, …, aN, R1, R2, …, RN, T, γ〉。其中智能体数量为N;当前环境状态空间集合为s,下一时刻的状态空间为s′;智能体i的动作空间表示为ai(i=1, 2, …, N);智能体i的回报函数表示为Ri: s × ai× s′→ R;联合状态转移概率表示为T: s × ai× s′→[0, 1];折扣因子为γ,用来表示当前的奖励对将来奖励的影响程度。状态转移是智能体共同行动的结果,在t时刻,每个智能体根据观察值oit ∈ s做出相应的行为,共同实施联合动作at=[a1, a2, …, aN],从而导致环境状态s的改变。此时,智能体i在t时刻获得的奖励被记为ri, t+k+1,那么总回报Ri, t等于:
式中, 为联合策略, 单个智能体i的行为策略为πi, 智能体的联合观测空间表示为s =(o1, o2, …, oN)。
联合动作a会决定每个智能体状态-动作值函数Qi, 计算公式为
2.2 DE-MADDPG算法框架
考虑到无人机集群威胁规避与一致性运动的合作性质, 不仅需要使无人机集群在散乱的条件下能够快速地形成编队, 还要考虑到集群内部的机间碰撞问题。因此, 为使集群内每个无人机都能根据环境做出最优的行为决策, 必须要解除集群状态和个体行为的耦合性, 从而实现整个集群在复杂条件下进行高效且鲁棒的自主决策。
DE-MADDPG在MADDPG的基础上进行了优化[13], 采用了双Critic框架方式, 通过引入局部Critic网络分离全局奖励和局部奖励。这种方法不仅成功避免了次优策略和不稳定结果, 还减少了由MADDPG算法中的集中式Critic网络导致的某个智能体策略在集群中的主导影响,进而更好地确保了各智能体进行有效的最优决策。其框架如图 4所示。
![]() |
图4 DE-MADDPG框架 |
图 4它的主要思想是通过将MADDPG和DDPG结合起来, 以最大化全局奖励。在训练期间为智能体提供额外的附加信息, 智能体i的策略梯度为
式中: ai=πi(oi)是智能体i在策略πi下的动作; D是经验回放池, 全局Critic网络Qψg的更新为
式中, yg为
式中, π′={π′1, π′2, …, π′N}是由θ′={θ′1, θ′2, …, θ′N}参数化的目标策略, 局部Critic网络Qψπ的更新为
式中, yl为
2.3 集群行为决策算法设计
采用DE-MADDPG对无人机集群自主决策算法进行设计, 需要从状态空间、动作空间以及奖励设置等方面考虑。
状态空间: 无人机集群的联合状态空间为
式中, oi为第i个无人机需要交互的感知信息, 具体定义为
式中: DiO为传感器获得的与障碍物的距离; DiT=‖Pi-PT‖, μi=ϕi-ϕj, ϕj代表通信的无人机航迹角, ΔVi=Vi-Vj。为了使算法具有更好的鲁棒性, 将状态空间全部进行归一化处理。归一化公式为
式中: x为原始数据中需要归一化的值; xmin和xmax分别为原始数据中的最小值和最大值。通过线性函数将原始数据线性化的方法转换到[-1, 1]的范围, 计算结果为归一化后的数据。
动作空间: 根据无人机的运动学模型, 定义无人机的联合动作空间为
式中
奖励函数: 一个合适的奖励函数可以大幅提高算法收敛的效率[14]。本文通过对奖励函数进行解耦, 分解为全局奖励函数和局部奖励函数。并且为了防止奖励过于稀疏, 添加了引导型的奖励以加快算法的收敛速度。
1) 全局奖励函数设计
全局奖励函数反映集群整体完成任务的情况,考虑到无人机集群的飞行任务目标是抵达某个目标点, 全局奖励应根据完成任务的时间进行设计。
式中:α和β为常数; m代表无人机集群中最接近目标点的无人机。
2) 局部奖励函数设计
局部奖励函数反映每个智能体的行为对集群的影响, 如飞行过程中的机间距离、威胁规避以及自身的任务目标。同时, 本文将群体智能的思想引入到奖励设置中, 设计为以下五部分:
(1) 无人机航迹角与无人机和目标连线角度之差的角度引导奖励
(2) 无人机相对于前一刻与目标距离之差的距离引导性奖励函数
式中, DiTl为上一时刻无人机与目标的距离。
(3) 保持无人机与邻机j速度一致性运动的引导性奖励函数
(4) 保持无人机机间飞行距离的引导性奖励函数
式中:dij为无人机i与距离其最近的无人机j的距离在区间[Dmin, Dmax]归一化后的值;Dmin和Dmax分别为无人机之间期望距离的最小值和最大值。
(5) 无人机与障碍物相撞时任务终止, 终端奖励设计为
式中, Ddanger为无人机之间的最小安全距离。
以上5项的加权总和即为集群算法的局部奖励函数。
式中, k1, k2, k3, k4, k5为常数, 用来调节各部分奖励的权重。
3 仿真验证与分析
3.1 环境设置
为了验证所提方法的有效性, 在基于Pyglet的可视化环境中搭建了无人机集群平台, 研究集群在散乱状态下自发形成一致性运动以及避障行为。无人机初始状态参数设定如表 1所示。
无人机初始状态参数
算法训练超参数如表 2所示。
算法训练超参数
为了更好地表征无人机集群在飞行过程中的运动情况, 观察集群的一致性运动行为, 定义一致性指标C为[15]
试验场景设置如下:
场景1 无人机群起飞后, 需要由散乱状态自主形成稳定编队结构, 且速度大小和方向基本保持一致。目标位置PT=[800, 600]m。
场景2 无人机群在飞行过程中遇到一个狭隘的通道, 通道两侧障碍物用2个长300 m, 宽200 m的矩形表示, 矩形障碍物位置PO1=[1 300, 550]m, PO2=[1 100, 900]m, 无人机初始角度ϕi∈[45°, 90°]。
场景3 无人机群在前往目标位置PT=[1 250, 800]m过程中, 个别无人机执行特定任务需飞向其他目标点Pg=[1 500, 600]m。
仿真试验环境为Windows10系统, Intel 2.6 Hz, 双核CPU, 8 GB内存, 开发语言为Python3.8。
3.2 仿真结果
首先分析无人机集群在1 000轮训练中奖励曲线的变化情况, 定量地评估MADDPG和DE-MADDPG算法在大规模无人机集群自主行为决策中的性能, 从而验证DE-MADDPG算法的优越性。其奖励曲线如图 5所示。
![]() |
图5 DE-MADDPG和MADDPG的奖励曲线 |
场景1仿真如图 6所示。
![]() |
图6 无人机集群一致性运动轨迹图 |
图 6为无人机集群在无障碍环境中飞行的轨迹;图 7为飞行过程中的速度、角度以及机间最近距离的变化情况。无人机群初始时速度和位置较为散乱,经过10 s左右的运动后,集群内个体的速度大小达成一致; 20 s后, 机间距离在20~70 m之间且速度方向能保持稳定, 减小了传统群体智能法带来的无人机在区域边界的振荡现象。
![]() |
图7 一致性运动过程中速度与机间距离变化图 |
集群飞行过程中的一致性系数如图 8所示。
![]() |
图8 不同算法的一致性系数曲线对比 |
将其与MADDPG和文献[16]中基于改进SAC算法的群体智能法进行对比, 在相同初始状态下仿真80 s, 可以看出, DE-MADDPG具有更快的响应速度, 能让集群短时间内迅速由散乱调整并保持一致性运动。
为进一步验证无人机集群在障碍环境下的决策效果, 场景2中通过加入2个矩形障碍物使得无人机集群通行范围缩小。场景2仿真如图 9~10所示。图 10展示了无人机集群首先从初始的散乱状态自发过渡为一致性运动, 接着在感知到障碍物之后进行避障决策, 过程中集群队形收拢, 最后以安全的间距通过狭窄通道的过程, 图 9蓝色矩形区域为障碍物。在阶段1(0~22 s)内, 无人机集群形成了一致性运动; 阶段2(22~98 s)内, 通过机载传感器感知到了前方大片的障碍区, 所以各个无人机进行决策朝着通道飞行, 在选择最优路径的同时保持机间的安全距离, 形成了集群聚集行为; 阶段3(98~160 s)内, 集群顺利飞进通道, 在此期间进行一致性运动并和障碍物保持安全距离, 最终集群安全飞出通道并到达目的地。
![]() |
图9 无人机集群聚集避障轨迹图 |
![]() |
图10 聚集避障过程中速度与机间距离变化图 |
整个无人机集群在运动过程中表现出了良好的速度一致性与空间一致性, 能够在发现障碍物之后进行自主决策, 进行聚集以通过狭窄隧道, 最近机间距离从40~80 m调整为20~50 m。从速度变化曲线中可以看出, 在聚集过程中, 无人机之间也能够保持速度一致运动。
最后, 在场景3中通过使特定的无人机UAVg飞出集群以测试在无人机数量发生变化时集群自主决策方法的有效性。
为直观地观察UAVg对集群内无人机散布空间的影响, 定义集群包络范围为
式中:(xc, yc)为集群中心点坐标, 即所有无人机位置的平均值; (xf, yf)为距离中心最远的无人机的坐标。场景3中无人机集群飞行过程仿真如图 11所示。
![]() |
图11 场景3无人机集群飞行过程仿真图 |
图 11中, 红色无人机代表UAVg, 在t=0~10 s过程中, 无人机集群保持良好的空间一致和速度一致性朝着目标飞行; t=10 s时, UAVg单独前往特定目标点Pg, 朝着集群外飞行; t=40 s时, 可以看出, 其他无人机具有躲避UAVg的趋势, 各无人机始终保持安全距离, 集群内间距明显增大; 最终在t=150 s时, 集群到达目的地并重新达到了一致性运动的效果, UAVg也安全飞出集群, 并未对集群飞行安全造成影响。
在图 12中, 紫色曲线代表UAVg, 在20 s左右, 综合图 12c)可知, 各无人机在感知到UAVg的威胁后, 通过加减速方式使集群整体的包络范围变大, 产生了充足空间防止发生碰撞。20~60 s内, 从图 12a)~12b)可以看出, 与UAVg相邻的部分无人机开始减速并且航向发生了偏转以达到避碰的效果。在80 s左右, UAVg完全脱离集群, 此时集群的包络范围达到最大并呈现收缩的趋势; 80s之后, 各无人机的角度基本上恢复一致, 从图 12d)可以看出,机间距离也在算法的作用下, 逐渐调整为合适的大小。最终到达目标点时之所以无人机集群的包络小于初始状态是因为无人机数量减少后算法产生的空间一致性作用, 达到与交互的各个无人机保持期望距离的效果。
![]() |
图12 场景3中集群速度与机间距离曲线 |
由以上的仿真结果可知, 通过将群体智能和DE-MADDPG相结合, 使大规模无人机集群不依赖中心化控制,同时能够进行自主决策从而由散乱状态达成一致性运动, 不仅在有障碍环境中表现良好, 在规避障碍的同时防止了机间碰撞, 而且能够适用于集群内无人机数量发生变化的情况。因此可以满足大规模无人机集群自主行为决策的需求。
4 结论
本文通过MRDL的方法对大规模固定翼无人机集群行为自主决策问题进行研究, 建立了去中心化的集群决策模型, 对MADDPG进行了改进, 将群体智能与深度强化学习相结合, 提出了无人机集群自主行为决策方法, 并基于Python搭建仿真平台进行了验证, 最终得出以下结论。
1) 大规模无人机集群基于深度强化学习的行为决策功能具有显著的优势。这主要体现在2个方面: 首先, 无需中心化控制, 每架无人机通过自身获取的局部信息进行融合来感知全局信息, 从而做出有利于集群运动的最优决策。其次, 在处理各类任务的场景中, 无人机群体显示出了出色的稳定性和泛化能力。
2) 设计的基于DE-MADDPG算法的解耦型奖励函数,克服了MADDPG算法的耦合奖励问题, 同时提升了智能体在学习最优策略时的效率。
3) DE-MADDPG算法相对于MADDPG算法来说, 具备更优的实时性和精确性, 更能满足复杂环境下集群自主行为决策的要求。
未来的研究将聚焦于考虑三维复杂场景的集群自主决策以及在实际场景中的验证。
References
- CHEN Zongji, WEI Jinzhong, WANG Yingxun, et al. UAV autonomous control levels and system structure[J]. Aeronauticaet Astronautica Sinica, 2011, 32(6): 1075–1083 (in Chinese) [Google Scholar]
- LI Jun, CHEN Shichao. Overview of key technology and its development of drone swarm[J]. Acta Armamentarii, 2023, 44(9): 2533–2545 (in Chinese) [Google Scholar]
- JIN Junyu, ZHANG Tingting. Research on autonomous behavior decision of UAV cluster with limited communication bandwidth[J]. Command Control & Simulation, 2022, 44(6): 7–15 (in Chinese) [Google Scholar]
- WU Yingjie, CAO Xinqin, LI Jie. A collaborative behavior decision-making method for unmanned aerial vehicles based on parameter time-varying dynamic Bayesian networks[J]. Tactical Missile Technology, 2020(6): 53–59 (in Chinese) [Google Scholar]
- LUO Yuanqiang. Research on air combat decision based on dynamic bayesian network[D]. Shenyang: Shenyang Aerospace University, 2018 (in Chinese) [Google Scholar]
- MING X, HONG Z, KEFU M, et al. Type-2 fuzzy control for driving state and behavioral decisions of unmanned vehicle[J]. IEEE/CAA Journal of Automatica Sinica, 2019, 7(1): 178–186 [Article] [Google Scholar]
- YANG Shuheng, ZHANG Dong, REN Zhi, et al. Research on UAV swarm confrontation method based on multi-agent reinforcement learning[J]. Unmanned Systems Technology, 2022, 5(5): 51–62 (in Chinese) [Google Scholar]
- LIU Zhifei, CAO Lei, LAI Jun, et al. Utonomous decision making of UAV cluster with multi-agent deep reinforcement learning[J]. Information Technology and Network Security, 2022, 41(5): 77–81 (in Chinese) [Google Scholar]
- LI Zihan. Research on UAV swarm confrontation simulation based on reinforcement learning[D]. Xi'an: Xi'an Technological University, 2023 (in Chinese) [Google Scholar]
- ZHANG T, WU Z, MA Y, et al. Research on autonomous formation of multi-UAV based on MADDPG algorithm[C]//2022 IEEE 17th International Conference on Control & Automation, Naples, Italy, 2022: 249–254 [Google Scholar]
- GAO Zhenlong. Research on UAV swarm movement and planning methods based on swarm intelligence[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2021 (in Chinese) [Google Scholar]
- SHEIKH H U, BÖLÖNI L. Multi-agent reinforcement learning for problems with combined individual and team reward[C]//2020 International Joint Conference on Neural Networks, Glasgow, UK, 2020: 1–8 [Google Scholar]
- HUANG Hao, MA Wenhui, LI Jiacheng, et al. Intelligent obstacle avoidance control method for unmanned aerial vehicle formations in unknown environments[J]. Journal of Tsinghua University, 2024, 64(2): 358–369 (in Chinese) [Google Scholar]
- LI Chao, LI Hao, SU Haoran. Analysis of the development of foreign small loitering munitions and their early warning system response strategy[J]. Air & Space Defense, 2023, 6(3): 58–65 (in Chinese) [Google Scholar]
- YAN Chao, XIANG Xiaojia, XU Xin, et al. A survey on scalability and transferability of muti-agent deep reinforcement learning[J]. Control and Decision, 2022, 37(12): 3083–3102 (in Chinese) [Google Scholar]
- ZHOU G Q, CHEN Z W, FANG F. Clustering in multi-agent swarms via medium-range interaction[J]. Europhysics Letters, 2011, 35(4): 20–26 [Article] [Google Scholar]
All Tables
All Figures
![]() |
图1 无人机、障碍物和目标的位置关系图 |
In the text |
![]() |
图2 无人机通信受限示意图 |
In the text |
![]() |
图3 无人机集群自主决策流程 |
In the text |
![]() |
图4 DE-MADDPG框架 |
In the text |
![]() |
图5 DE-MADDPG和MADDPG的奖励曲线 |
In the text |
![]() |
图6 无人机集群一致性运动轨迹图 |
In the text |
![]() |
图7 一致性运动过程中速度与机间距离变化图 |
In the text |
![]() |
图8 不同算法的一致性系数曲线对比 |
In the text |
![]() |
图9 无人机集群聚集避障轨迹图 |
In the text |
![]() |
图10 聚集避障过程中速度与机间距离变化图 |
In the text |
![]() |
图11 场景3无人机集群飞行过程仿真图 |
In the text |
![]() |
图12 场景3中集群速度与机间距离曲线 |
In the text |
Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.
Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.
Initial download of the metrics may take a while.