作者:徐艺博 于清华 王炎娟 郭策 冯世如 卢惠民
“人工智能技能与咨询” 发布
择要
面向利用多枚巡飞弹对地面高防御移动目标进行打击的任务场景,提出一种基于多源信息领悟的巡飞弹对地移动目标识别与毁伤评估方法。基于IoU剖断实现红外图像与可见光图像的多源信息领悟;提出一种基于YOLO-VGGNet的两阶段紧耦合的巡飞弹对地移动目标毁伤评估方法,利用卷积神经网络深度语义信息提取的上风,引入红外毁伤信息,实现对地面移动目标的在线实时毁伤评估。实验结果表明:基于多源信息领悟的目标识别算法有效提升了巡飞弹对地面移动目标识别的有效性;基于YOLO-VGGNet的在线实时毁伤等级评估方法较传统基于图像变革检测与基于两阶段卷积神经网络的方法评估准确率分别提升19%和10.25%。
关键词
多源信息领悟, 毁伤评估, 卷积神经网络, YOLO-VGGNet, 在线实时评估
弁言
当代战役中,分布式、集群化、协同化作战朝阳东升,面对具有高目标代价和强防御能力的敌方目标威胁,与单枚导弹比较,利用导弹集群进行智能化协同作战,可以提高体系突防能力、感知探测能力和目标打击饱和度,但同时也对导弹自身环境不雅观测和目标状态感知能力提出了新的寻衅[1]。面对具有高防御能力的敌方目标威胁,单枚导弹可能无法有效摧毁,须要利用多枚导弹进行联合打击。对受打击后的目标进行毁伤评估不仅可以节省弹药、确定目标打击优先级,而且还可以实现对地面孔标的饱和式攻击,客不雅观评价沙场态势[2-3]。本文以巡飞弹组成的弹群为研究背景,巡飞弹是集无人机与导弹上风的察打一体化小型智能弹药,弹群在实行任务时,每个节点基于自身弹载传感器,对地面孔标进行位置与状态的感知,并基于弹间通信机制进行不同节点的信息交互。
基于图像对地面孔标进行毁伤评估一贯是军事智能感知领域的重难点问题,其核心是剖析评估方法。除人工判读外,紧张有贝叶斯网络法[4]、主身分剖析法(PCA)[5]、模糊综合评判法[6]、神经网络剖析法等。基于贝叶斯网络的评估方法多采取机器判读,可以综合各种不同类型的信息,具有评估韶光短,对不愿定性问题定量剖析的优点。田福平等[7]利用贝叶斯网络在非精确知识表达与推理领域的上风,综合考虑目标代价、打击难度、打击效果等成分,对目标进行整体作战效果的评估;马晓明等[8]利用贝叶斯网络在不愿定性问题上的打算上风,利用GeNle软件建立了目标毁伤效果评估的贝叶斯网络,对目标舰船毁伤效果进行推理评估;杨凯达[9]基于加入毁伤韶光流的动态贝叶斯网络有效战胜了传统方法的主不雅观性和不愿定性,评估准确率得到较大提升,适用于战时精准目标的毁伤效果评估。只管贝叶斯方法能够对不愿定性问题进行定量剖析,但它们每每不能利用人的履历知识,无法捉住问题的紧张抵牾。
PCA紧张采取降维的思想,把图像中繁芜的特色表示转化为少数评价指标,作为衡量图像变革程度的特色量[10]。Li等[11]将PCA与合成孔径雷达(SAR)多纹理特色提取的上风相结合,减少数据打算量,评估地面建筑物的毁伤程度;Wu等[12]将PCA与卷积映射网络相结合,实现不同韶光段高分辨率图像的变革检测;Osama等[13]提出一种改进的PCA-NLM(nonlocal means)方法,用于不同韶光段SAR图像的城市发展变革检测。基于PCA的评估方法可以有效减轻数据处理量并捉住紧张抵牾,但抗滋扰性较差,易受地面其他变革成分的影响。
传统基于图像变革检测的毁伤评估方法紧张针对固定的地面孔标(建筑、桥梁、机场) [14],一样平常分为3个步骤:①对打击前后图像进行配准;②检测受打击的目标区域;③基于图像变革检测对目标毁伤效果进行评估,实质上是“特色提取”问题,须要利用多种图像处理算法,如图像预处理、图像配准、图像辐射校正等,这就不可避免地引入多重偏差。固定目标图像变革检测的关键在于打击前后图像的高精度配准,与固定目标不同的是,地面移动目标在实行任务时,时候处于运动状态,目标受打击并不虞味着运动能力的损失。传统方法每每依赖后方的掌握中央,无法仅基于巡飞弹的自身硬件资源进行在线图像处理,考虑信息通报与图像处理造成的时空滞后性,无法知足弹群实际的作战需求[15]。因此,巡飞弹对地面移动目标的识别与毁伤评估应该是实时且在线的,传统基于图像变革检测的毁伤评估方法并不适用于地面移动目标。同时,被攻击目标由于其分外性与保密性,数量较少且难以获取,这都对基于弹群作战的毁伤评估研究造成很大困难。
卷积神经网络(CNN)在图像领域取得了很大的成功,特殊是在目标检测分类领域,在一些大型数据集的测试中,深度卷积神经网络的识别率早已超过人类[16]。基于神经网络方法的上风是可以通过大量数据的学习,提取深层次的语义特色,而不仅是物理、像素空间特色,并且知足在线实时哀求。因此,大量基于神经网络的毁伤评估研究也不断呈现。余丽山等[17]基于BP神经网络突出的非线性映射能力和柔性的网络构造对飞机的抗毁能力进行评估;张宗腾等[18]基于改进的GA-BP神经网络对飞机系统各部件的毁伤程度进行评估,提升了模型的泛化能力和全局寻优能力;Shen等[19]利用卫星图像,基于改进的BDANet网络构造充分利用CNN语义特色提取的上风对地面建筑进行毁伤评估,取得了较好的评估效果;Sarath等[20]采取Mask-RCNN神经网络对道路交通中的车辆擦伤区域进行毁伤评估,减轻了车辆保险公司职员的事情量。
上述基于单阶段神经网络的方法虽然可以提取目标的深度语义信息,但是当面对大量须要处理的图像时,并非每一张图片都须要细致的评估,由于对每一帧图像都进行细致的评估是十分耗时的。且单阶段评估方法不适用于地面移动目标的评估,在图像中识别出目标所在区域的同时对区域中的目标进行毁伤评估是不现实的。部分研究者提出两阶段神经网络评估方法,先采取一个轻量化的网络进行粗略评估来判断是否须要进一步处理。Alqahtani等[21]针对机器构造破坏的问题,设计了一个两阶段毁伤评估网络,该网络由两个子神经网络构成,分别检测目标构造是否受损以及受损程度,有效提升了评估的准确率与打算效率;Xu等[22]提出一种两阶段屋顶受损评估方法,用于评估台风后屋顶的受损程度,两个子神经网络分别用于评估房屋是否受损以及受损程度。
虽然基于两阶段神经网络的评估方法可以充分利用CNN深度语义信息提取的上风,同时知足实时在线条件,提升评估的准确率和效率,但仅是针对单一的目标类型,两网络之间的联系仅基于第1个子网络的先验分类信息。如果仅基于第2个子神经网络对多种类型目标进行毁伤评估,神经网络难免会稠浊不同目标的毁伤特色,比如,火焰对军帐来说是致命的,而对付坦克却无关紧要。Tang等[23]针对特定类别的目标,演习相应的毁伤评估模型,将两个神经网络进行串联,第1个网络用于区分不同的自然磨难类型,第2个网络基于第1个网络的先验分类信息采取相应自然磨难的评估模型进行毁伤评估。虽然实现了不同目标毁伤程度的评估,但两网络之间的联系依然很弱,仅是自然磨难的分类信息。对地面移动目标的毁伤评估与自然磨难不同,不仅须要有目标分类信息,还要包含目标位置信息,同时为避免不同目标毁伤特色的相互影响,最好可以将不同目标种别分别进行评估。
为办理以上问题,本文提出一种基于YOLO-VGGNet的双阶段紧耦合的对地目标识别与毁伤评估方法,充分利用CNN对目标高等语义信息提取和检测框尺度变革的上风,更好地提取目标毁伤特色,有效打消沙场浓烟、火花、弹坑的影响,同时避免不同目标毁伤特色的相互滋扰,知足弹群作战的在线实时哀求,提高了巡飞弹对地目标毁伤状态评估的准确率和效率。
1 基于多源信息领悟的对地目标识别
巡飞弹对感知的RGB图像与红外图像进行实时的特色提取,并将识别框进行叠加,基于IoU剖断进行信息领悟。将符合剖断条件的识别框输入VGG系列网络中,同时引入红外毁伤信息进行毁伤等级的评估,流程如图1所示。
图1 弹群节点对地目标识别与毁伤评估流程图
1.1 YOLO v3检测可见光图像目标
由于地面孔标时候处于运动状态,本文采取YOLO v3在线实时地对可见光图像中的目标进行检测、分类与定位。G 为输入RGB图像,YOLO v3网络可表示为
(1)
式中:θweight 为网络的权重参数;Gn 为RGB图像中包含目标的图像小块,紧张有识别框位置信息Pm=[xm,ym,wm,hm] 、目标的种类Cm 、目标的置信度Qm 。网络的丢失函数为
(2)
式中:Lconfi 为置信度偏差;Lclass 为目标种别偏差;Lcoord 为坐标预测偏差,它们分别卖力对目标进行检测、分类与定位。
(3)
式中:λcoord 为坐标偏差权重;S2 为输入图像划分的网格数;B 为每个方格天生的先验框;
为第i 个方格的第j 个先验框是否对该目标卖力。如果是,则
为1,否则为0;
为目标框真值,分别代表目标的x 与y 方向位置、识别框的宽与高。Lcoord 越小,解释识别框定位越准确。
在仿真场景中网络包含不同毁伤状态的4种军事目标图像:坦克、雷达、补给车、军帐共1 250张图片,为加快演习速率,采取Darknet53标准预演习权重,演习过程中,学习率为0.001,批处理大小为8,演习100个周期。
1.2 红外特色提取
巡飞弹在吸收到红外图像之后,先将图像转化为灰度图,增加灰度等级滤波器,将灰度划分为17个等级,对应0~255中15的倍数,设置处于每一灰度区间的灰度值即是该等级的最高值,以此突出灰度图像的层次感。将红外图像的检测强度按图像灰度值划分为3个层级:强辐射(灰度值>180)、中等辐射(90<灰度值≤180)、普通辐射(灰度值≤90)。强辐射紧张针对车辆目标、中等辐射紧张针对建筑与军帐、普通辐射是环境正常的红外强度。下文检测的红外物体均指强辐射与中等辐射。
选用3×3的开运算滤波器,可最大程度地通过堕落膨胀,既不毁坏图像原有的目标信息,又能部分打消地面红外噪点的滋扰。经由前两步,大大提高了红外掩膜的识别准确度和方框的定位精度。
红外特色提取算法:
(4)
式中:I 为红外图像;φgray 为灰度等级滤波器;φopen 为开运算滤波器;In 为识别的红外目标图像小块;Pm 为图像小块的位置信息;Sm 为图像小块的辐射等级以及包含的火焰、残骸等毁伤红外权重。
1.3 基于IoU剖断的信息领悟
将红外图像与可见光图像识别信息进行领悟,可结合可见光图像分辨率高、识别比拟度好与红外图像受环境影响小、准确度高、能识别伪装的上风,提高巡飞弹对地目标识别的有效性。
由于可见光与红外图像分辨率大小不同,将从红外图像提取得到的掩膜方框经由缩放映射到RGB图像识别结果中,得到包含2种方法识别的方框信息,如图2所示,绿色框为红外检测结果,蓝色框为神经网络检测结果。
图2 识别框叠加效果(a) 单目标 (b) 多目标
IoU是目标检测算法中用来评价2个矩形框之间相似度的指标,IoU的值越大,解释预测结果与真实结果越靠近,值越小解释预测结果越差。OIoU=2 个矩形框相交的面积/2个矩形框相并的面积,IoU定义如图3所示。
图3 IoU的定义
当神经网络输出的方框与红外掩膜方框有重叠时,打算两方框之间的IoU值,当OIoU 阈值时,剖断该区域存在识别目标,并将神经网络识别框作为图像小块输入目标毁伤等级评估网络;当OIoU ≤阈值时,两个方框均舍弃。当只有红外掩膜方框而没有神经网络方框时,剖断为地面红外滋扰物体,舍弃;当只有神经网络方框而没有红外掩膜方框时,剖断为神经网络误识目标,舍弃。多源信息领悟与IoU剖断流程如图4所示。
图4 多源信息领悟与IoU剖断
将识别出的红外与RGB图像小块输入IoU剖断模块,由于RGB图像识别比拟度好,以是终极输出符合剖断条件的RGB图像小块:
(5)
2 基于YOLO-VGGNet的毁伤等级评估
将经由多源信息领悟与IoU剖断的包含目标的RGB图像小块经由裁剪后输入VGG系列网络中进行毁伤等级的评估,由于不同目标的构造特性、毁伤特色有很大差异,因此,需针对不同目标设计相应的VGG毁伤评估模型,如图5所示。VGG_1、VGG_2、VGG_3、VGG_4分别评估坦克、雷达、补给车与军帐的毁伤等级。
图5 VGG毁伤等级评估
将目标的毁伤状态划分为4个等级:正常、轻度毁伤、中度毁伤、重度毁伤。正常是未受到打击的目标,轻度毁伤是受到打击后功能不受影响的目标,中度毁伤是受到打击后部分功能损失的目标,重度毁伤是受到打击后功能完备损失的目标。补给车的不同毁伤状态如图6所示。
图6 补给车不同毁伤状态
作为一个分类任务,VGG网络的丢失函数仅包含分类偏差:
(6)
式中:y' 为图像小块的真实标签;y 为VGG网络的预测值;
为预测种别与真实类别的偏差;α 为VGG的丢失网络;Cl 为网络的层数;ClHlWl 为第l 层特色图的大小。由于传统L2 丢失函数与人眼感知到的特色并不匹配,而基于人眼感知的感知丢失函数能够打消图像中无关的成分,如弹坑、浓烟,更好地提取符合人类视觉的目标特色,因此,采取基于人眼感知的丢失函数代替L2 丢失函数。VGG系列网络为
式中:
为相应网络的权重;Sm 为引入的红外毁伤权重。
考虑实际军事目标的保密性与暗藏性, 可用于演习与测试的样本数量较少且难以获取,因此,采取基于迁移学习微调的演习方法,可以在演习数据集较少的情形下担保模型的准确性。微调法在演习过程中对中间卷积层参数进行微调,与冻结法比较(卷积层参数冻结不变,仅演习末了的全连接层),演习出的模型参数对识别目标更敏感,模型泛化性能更好。在仿真环境中针对不同种别目标,网络不同毁伤状态的军事目标图片,VGG-1、VGG-2、VGG-3和VGG-4均网络250张图片,200张作为演习集与验证集,50张作为测试集。基于VGG预演习模型,修正末了全连接层的输出为4,演习参数中,学习率为0.001,批处理大小为32,演习周期为20。
3 仿真实验结果与剖析
由于当前海内对毁伤评估的研究尚未形成完全的体系,很少有针对地面移动目标毁伤评估的图像数据集。因此,本文基于Unity仿真图像进行实验。仿真平台分为做事器端与客户端,做事器端将弹群在仿真环境中实时感知的地面RGB图像与红外图像发送给客户端。客户端在吸收到图像的同时,随即展开对地目标的识别与毁伤评估任务。
随机初始化弹群翱翔轨迹,设计仿真环境与3D目标毁伤模型。为使仿真环境更加贴近真实天下并简化评估模型,除添加环境图像噪声、地面建筑、小车、大巴等自然滋扰外,同时增长对抗性的神经网络欺骗目标(木质或充气的伪装目标,颜色纹理特色与军事目标附近)和弹坑、火花、浓烟等打击效果,测试所提算法对地目标识别与毁伤评估的有效性。
3.1 多源信息领悟验证与剖析
将红外图像与可见光图像进行领悟并进行在线实时目标检测具有主要的军事运用代价,俄乌战役期间,乌克兰就用木质的目标吸引俄军高代价导弹;二战期间,盟军也用充气的坦克模型达到威慑纳粹的目的。本文在仿真环境中支配木质和欺骗性的军事装备,以此仿照敌方的滋扰,仿真环境中的自然物与道路街道中的小车、大巴同样会对目标识别造成影响。
与单模态目标识别比较,通过将可见光图像与红外图像识别框叠加,并采取IoU剖断进行信息领悟的方法,可以综合不同模态图像信息提取的上风,打消地面小车、木质或充气伪装物,以及部分神经网络误识的影响,提升巡飞弹对地目标检测分类的有效性。
由于不同目标红外辐射强度不同,坦克、雷达与补给车红外辐射强度较大,而军帐与地面建筑辐射强度附近,采取强辐射与中等辐射进行分层检测。实验测试了5个弹群节点对地目标识别效果,如表1所示。
表1 巡飞弹对地目标识别结果
红外目标识别一栏表示每个节点检测到的强辐射与中等辐射的目标个数,强辐射紧张针对车辆目标,中等辐射针对建筑与军帐。综合5组数据,信息领悟之后的目标误识率较单模态可见光减少约18.7%。紧张缘故原由在于神经网络在面对木质或充气的伪装目标时误识的概率比较高,如图7(a)(d)所示,通过引入红外信息,打消部分无热源误识目标的影响,但仍存在既能欺骗神经网络又含有红外信息的滋扰物,如图7(b)所示。
图7 部分实验测试结果
3.2 基于YOLO-VGGNet的毁伤等级评估
面向利用弹群对地面高防御移动目标协同作战的任务场景,基于弹载传感器自主对地面孔标进行识别与毁伤评估,不仅能有效对目标进行杀伤,而且还能节省弹药,提升弹群整体的作战水平。本文在仿真环境中随机支配不同类型、不同毁伤等级的军事目标模型,为更加贴合真实巡飞弹打击效果,目标周围支配大小形状不同的弹坑、浓烟、火花,在不改变弹群翱翔轨迹及运动参数的条件下,仅基于弹载传感器自主对地面孔标的状态进行感知。
在基于多源信息领悟得出目标的种类与位置信息之后,根据提出的YOLO-VGGNet方法对识别目标进行毁伤等级的评估。在YOLO v3对地面孔标检测、分类、定位的根本上,采取传统基于图像变革检测的PCA-k-means方法和基于Mask-RCNN的两阶段毁伤评估方法对图像小块中的目标进行毁伤评估比拟。
首先,采取传统基于图像变革检测的PCA-k-means方法进行测试。PCA方法将繁芜的图像特色转化为少数具有代表的特色量,保留图像中主要的特色部分。k-means聚类使得各聚类本身尽可能紧密,而不同目标尽可能分开。该方法须要对打击前后的图像进行预处理,包括原始图像配准、裁剪目标所在的图像小块(每块图像小块统一大小为300像素×300像素)。然后,检测图像变革区域,得出图像变革区域占图像小块的比例。末了,根据该比例大小设置相应的目标毁伤等级。设置灰度分割阈值为120,超过该阈值认为该像素点发生了变革,反之未变革。根据变革的像素点个数占图像小块的比例划分毁伤等级:
(7)
PCA-k-means部分测试结果如图8所示。
图8 PCA-k-means评估效果
基于图像变革检测的传统方法专注于物理、像素空间,目标周围的浓烟、火花、弹坑均能对评估结果造成很大影响。但是,目标周围环境的变革与目标的毁伤等级并不是严格正干系的,部分变革成分对目标的毁伤状况关系不大,如浓烟、弹坑虽然变革区域较大,但对目标造成的实际影响有限;火花虽然变革区域较小,但对军帐却是致命的。我们同样比拟了基于Mask-RCNN的两阶段卷积神经网络毁伤评估方法,实验结果如表2所示。
表2 毁伤等级评估结果 (%)
真值栏为该状态的总目标个数,YOLO-VGGNet栏、PCA-k-means栏和Mask-RCNN栏为该方法评估精确的目标个数。实验结果表明:基于YOLO-VGGNet的两阶段毁伤评估均匀评估准确率较PCA-k-means和Mask-RCNN方法分别高19%和10.25%。
基于Mask-RCNN的两阶段卷积神经网络方法,可以充分利用卷积神经网络对图像目标深层次语义特色提取的上风,减少与目标毁伤状态无关成分的滋扰,同时知足巡飞弹在线实时评估的需求。但由于不同目标的构造特色、功能特色和抗毁特性不同,单一的评估网络每每会稠浊同一类型目标与不同类型目标之间的毁伤特色,例如,火花、浓烟对付军帐来说比较致命,但对付坦克没太大影响。还有一些关键部位的损伤对目标的功能影响也不同,雷达支架破坏与雷达天线破坏造成的影响不同,补给车轮廓变形与坦克装甲破损对自身影响也大不一样。
为避免网络演习过程中稠浊同一类型目标或不同类型目标之间的毁伤特色,针对特定种类目标演习相应的毁伤评估模型十分必要。本文提出的基于YOLO-VGGNet的两阶段紧耦合毁伤评估方法,可以在YOLO对目标的检测、分类与定位的先验信息根本上,以图像小块的形式将每一目标单独进行裁剪,充分利用图像变革的尺度上风,减少评估区域,更好地提取评估工具的特色。同时引入毁伤红外特色并采取针对特定种类目标演习的模型进行毁伤评估,既能充分利用卷积神经网络高等语义特色提取的上风,有效打消沙场浓烟、弹坑的影响,又能利用有限的毁伤红外特色,并避免单个评估网络稠浊同一类型目标与不同类型目标的毁伤特色,从而取得更好的毁伤等级评估结果,如图9所示。
图9 YOLO-VGGNet评估效果
实际测试中,巡飞弹每秒吸收15帧分辨率为720×540的可见光图像,YOLO v3将图像中识别出的目标小块存储在内存的缓冲区中,均匀每帧图像处理耗时32 帧/s,VGG_1系列网络分别对内存中包含特定种类的图像小块进行并行的毁伤等级评估。在对VGG_1系列网络单独进行测试时,以300×300的图像小块为例,VGG_1系列网络均匀处理速率为125 帧/s,知足巡飞弹对地移动目标在线检测与实时评估的哀求。
本文在仿真实验验证的根本上,通过类激活映射方法可视化卷积过程中提取的权重信息,初步验证了提出的YOLO-VGGNet方法在真实军事图像的有效性,更多基于真实军事图像的毁伤评估有待进一步研究。
4 结论
本文采取红外与可见光信息领悟方法研究基于视觉的巡飞弹对地范例移动目标的识别与毁伤评估,实现对地面孔标的在线实时状态感知。研究紧张贡献与创新点如下:
(1) 设计基于IoU剖断的红外与可见光图像信息领悟方法。对红外特色进行分层提取,并采取IoU剖断与可见光信息进行领悟,可以识别敌方木质或者充气的对抗性伪装目标欺骗,打消地面建筑、车辆等滋扰目标对神经网络误识造成的影响,提升巡飞弹对地目标识别的有效性。同时将红外毁伤信息作为权重因子引入毁伤评估中。
(2) 设计了基于YOLO-VGGNet的在线实时对地移动目标识别与毁伤评估网络,并与传统基于图像变革检测和两阶段CNN的方法进行比拟。实验结果表明:基于YOLO-VGGNet的两阶段巡飞弹对地目标毁伤评估方法,知足弹群任务在线实时的作战需求,能够充分利用CNN对目标语义信息提取的上风,不仅能够减少目标周围浓烟、弹坑的不利影响,而且可以有效利用有限的毁伤红外辐射并避免评估网络稠浊同种类型目标与不同类型目标的毁伤特色。较传统基于图像变革检测的PCA-k-means方法与基于Mask-RCNN的两阶段评估方法具有明显上风,评估准确率分别提升19%和10.25%。
(3) 设计一套基于多源信息领悟的弹群对地目标识别与毁伤评估仿真环境与范例军事目标3D毁伤模型,并基于Unity开展弹群对指定区域的侦察与目标状态感知任务,有利于进一步开展弹群对地目标的指挥决策研究。
本文就巡飞弹对地移动目标的识别与毁伤评估进行研究,干系事情有望显著提升弹群整体的作战性能。受限于仿真环境与真实图像的差别,虽然尽可能贴近真实场景,在仿真环境中加入了环境噪声、弹坑、火花等滋扰,但离真实目标图像还有一定间隔。接下来将进一步利用真实图像进行研究,验证评估算法的有效性。同时,当前的目标毁伤状态感知程度有限,无法精准判断目标的受损部位,下一步将考试测验分离目标的关键功能性部件,实现巡飞弹对地目标的功能性毁伤评估。
声明:"大众年夜众号转载的文章及图片出于非商业性的教诲和科研目的供大家参考和磋商,并不虞味着支持其不雅观点或证明其内容的真实性。版权归原作者所有,如转载稿涉及版权等问题,请立即联系我们删除。
“人工智能技能与咨询” 发布