物联未来网·频道

www.huwulian.com

当前位置:首页 > 频道 > 人工智能 > 智能的发展趋势

智能的发展趋势

2021.12.19 18:35:14  来源: 人机与认知实验室   作者: 刘伟 辛益博等   字体:【
【导读】未来是人机环系统融合的世界。它不仅仅是智能化,更是智慧化,未来的智能不但要打破形式化的数学计算, 还要打破传统思维的逻辑算计,是一种结合人、机、环境各方优势互补的新型计算-算计博弈系统。本文以未来智能化为背景,研讨了深度态势感知的概念、内涵与模型;介绍了未来智能化中深度态势感知模型发挥的作用,即深度态势感知解决了人工智能中可解释性、学习、常识三个重要瓶颈;论述了人机环境系统融合、智慧化协同对未来智能化的影响;提出了深度态势感知在未来智能化中可能存在的问题, 包括人机问题、不确定性问题和人的问题。人机协同智能机制、机理的破解以及有效的协同方式将成为影响未来智能化的关键因素。所以,对深度态势感知的研究对未来智能化领域有着重大意义。

引言

随着信息技术和智能技术的发展,未来智能样式将迎来新一轮的变革。智能化环境变得越发复杂,运行节奏也随着人工智能处理海量数据的能力的提升变得越来越快。在不确定、非完全信息、开放环境中,人们要在更短的时间内做出决策反应,而从大量态势信息中获取有用信息、形成正确认知、迅速做出决策,单纯依靠人力的分析判断决策显然是不够的。

在这种情况下,迫切需要一种新的技术来辅助人的决策提升决策速度。随着人工智能的快速发展,人工智能处理海量数据的能力和有规则条件下的推理博弈能力都已经超过人类,但是在智能化中,当前人工智能还无法取代人类智能,人类的经验、直觉、反思等能力以现有的人工智能水平还难以实现。人的智能与机器智能具有互补性,因此,如何在动态、复杂、小样本、不确定智能环境下,形成快速、准确、有效的人机协作智能分析决策系统是未来智能科技的一个热点、难点和瓶颈。建立人与机器之间的新型关系,实现人机合一,提高智能性能的研究是必不可少的。


1、深度态势感知的概念、内涵与模型

深度态势感知的含义是“对态势感知的感知,是一种人机智慧,既包括了人的智慧,也融合了机器的智能(人工智能)”,是能指+所指(能指、所指不太常用,建议使用常用词或易于理解的短语),既涉及事物的属性(能指、感觉)又包括它们之间的关系(所指、知觉),既能够理解弦外之音,也能够明白言外之意。它是在原美国空军首席科学家Endsley以主体态势感知(包括信息输入、处理、输出环节)的基础上,包括人、机(物)、环境(自然、社会)及其相互关系的整体系统趋势分析,具有“软/硬”两种调节反馈机制;既包括自组织、自适应,也包括他组织、互适应;既包括局部的定量计算预测,也包括全局的定性算计评估,是一种具有自主、自动弥聚效应的信息修正、补偿的期望-选择-预测-控制体系。

事实上,把生命体特有的“目的性行为”概念用“反馈”这种概念代替,把按照反馈原理设计成的机器的工作行为看成目的性行为,并未突破生命体(人)与非生命体(机器)之间的概念隔阂,原因很简单,人的“目的性行为”分为简单显性和复杂隐性两种,简单显性的“目的性行为”可以与非生命体机器的“反馈”近似等价(刺激—反应),但复杂隐性的“目的性行为”——意向性却远远不能用“反馈”近似替代,因为这种意向性可以延时、增减、弥聚,用“反思”定义比较准确,但“反思”概念却很难与非生命体的机器赋予(刺激—选择—反应)。“反思”的目的性可用主观的价值性表征,这将成为人机融合的又一关键之处。价值将由吸引子和动机共同构成。反思是一种非生产性的反馈,或者说是一种有组织性的反馈。自主是有组织的适应性,或被组织的适应性。据此我们将Endsley态势感知三级模型和维纳的“反馈”思想结合,提出了一个基于“反馈”的深度态势感知模型。从某种意义上讲,深度态势感知是为完成主题任务在特定环境下组织系统充分运用各种类人认知活动(如目的、感觉、注意、动因、预测、自动性、运动技能、计划、模式识别、决策、动机、经验及知识的提取、存储、执行、反馈等)的综合体现。既能够在信息、资源不足情境下运转,也能够在信息、资源超载情境下作用。在有时间、任务压力的情境下,“经验丰富”的深度态势感知系统常常是基于离散的经验性思维图式/脚本认知决策活动(而不是基于评估),这些图式/脚本认知活动是形成自动性模式(即不需要每一步都进行分析)的基础。事实上,它们是基于以前的经验积累进行反应和行动,而不是通过常规概率统计的方法进行决策选择。基本认知决策中的情境评估是基于图式和脚本的。图式是一类概念或事件的描述,是形成长期记忆组织的基础. “Top-Down”信息控制处理过程中,被感知事件的信息可按照最匹配的存在思维图式进行映射,而在“Bottom-Up”信息自动处理过程中,根据被感知事件激起的思维图式调整不一致的匹配,或通过积极的搜索匹配最新变化的思维图式结构。

智能的发展趋势.jpg

深度态势感知理论模型在不同情境下处理信息的方式会有所区别,并且以往关于态势感知的研究都充分说明了态势感知具有实时性,即态势感知会随时间而不停地更新、迭代。所以我们尝试对态势感知进行细化,并提出了一个基于循环神经网络(RNN)的深度态势感知理论框架。                   

我们将态势感知中的“态”定义为人机环境系统中的各类表征个体状态的主客观数据,即state;“势”定义为事件的发展趋势,即trend;“感”定义为对系统中“态”的觉察,即sense;“知”定义为对“势”的理解。该理论框架就是为了辅助人们更好地“感态”、“知势”。而为了获取数据,必然要引入客观数据,根据之前的研究,我们可以将“态”形式化为显著性,“势”形式化为价值性,“感”为反应时间,“知”为准确率。“感态”着重于时效性,而“知势”更倾向于有效性。


2、深度态势感知在智能化领域中的作用

当前人工智能方法局限于“确定性、完全信息、受限环境”的约束,不能满足未来智能化领域的要求。在智能化领域的不确定、非完全信息、开放环境中,人类的经验、直觉、灵感与人工智能系统的高效、精确具有合作互补的巨大潜力。人机融合智能中深度态势感知是未来人工智能发展的重要方向,通过借鉴认知科学、计算神经科学的研究成果,使计算机通过直觉推理、经验学习将自身引导到更高的层次,是实现高效智能化的重要手段。

现代人工智能缺乏需求任务的自主/自动生成、动态任务规划、需求矛盾协调,很难处理快速态势感知和慢速态势感知之间的矛盾,更不容易实现整个人机环境系统的有机相互联动和事实与价值元素的混编嵌入。

所以,人工智能有限的理性逻辑和困难的跨域能力是其致命的缺陷。人工智能无法理解相等关系,尤其是不同事实中的价值相等关系;人工智能也无法理解包含关系,尤其是不同事实中的价值包含关系(小可以大于大,有可以生出无)。人可以用不正规不正确的方法和手段实现正规正确的目的,还可以用正规正确的方法和手段实现不正规正确的意图。还有,人可以用普通的方法处理复杂的问题,还可以(故意)用复杂的方法解答简单的问题。

同时,人工智能在智能化领域有三道过不去的坎,即可解释性、学习、常识。

2.1、可解释性

如今,AI的可解释性正在成为一道过不去的坎,2019年,欧盟出台《人工智能道德准则》,明确提出AI发展方向应该是“可信赖的”,包含安全、隐私和透明、可解释等方面。

人工智能应用以输出决策判断为目标。可解释性是指人类能够理解决策原因的程度。人工智能模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。模型可解释性指对模型内部机制的理解以及对模型结果的理解。其重要性体现在:建模阶段,辅助开发人员理解模型,进行模型的对比选择,必要时优化调整模型;在投入运行阶段,向决策方解释模型的内部机制,对模型结果进行解释。比如决策推荐模型,需要解释为何向这个用户推荐某个方案。

目前,各领域对人工智能的理解与界定因领域分殊而有不同,但在共性技术和基础研究方面存在共识。第一阶段人工智能旨在实现问题求解,通过机器定理证明、专家系统等开展逻辑推理;第二阶段实现环境交互,从运行的环境中获取信息并对环境施加影响;第三阶段迈向认知和思维能力,通过数据挖掘系统和各类算法发现新的知识。

严格意义上说,美国的人工智能技术总体上世界领先,但是一旦涉及到人机融合智能,往往就体现不出那么大的优势了,甚至不见得有领先的态势(也许中美在人机融合智能方面根本不存在代差)。美国防部2021财年申请289亿美元用于美国核武器设施的现代化建设,体现了特朗普政府战略发展重点:提升核指挥、控制和通信(NC3)基础设施的高度自动化以及提高其速度和准确性,但同时也引发一个令人不安的问题,即在未来的核战争中,AI自主系统在决定人类命运方面将扮演哪种角色?当前计算机辅助决策仍处于起步阶段,容易出现难以预料的故障。机器学习算法虽擅长面部识别等特定任务,但也会出现通过训练数据传达的内在“偏见”。因此,在将人工智能应用于核武器指控方面需采取谨慎负责的态度,只要核武器存在,人类(而不是机器)就必须对核武器的使用行使最终控制权。

人机融合智能,是科学技术与人文艺术、数学符号事实语言与自然经验价值语言结合的代表。时空不但在物理领域可以发生弯曲,而且还可以在智能中发生扭曲。如果说哲学逻辑经历了世界的本源问题、研究方法问题的转向,那么上个世纪分析哲学——对人类语言工具的剖析成了人类思想史上的一次“革命”,这一场以维特根斯坦为代表的哲学革命,直接诱发了以图灵机、图灵测试为代表的人工智能科技快速发展。但金观涛的“真实性哲学”认为,在二十一世纪分析哲学最终将哲学束缚在牢笼中,实际上也造成了思想的禁锢:符号不指涉经验对象时亦可以有其自身的真实性,而且这一结论对数学语言和自然语言皆可成立。与此同时,纯符号的真实性是可以嵌入到经验真实性中的;科学研究与人文研究可以成为相互统一但又互不重叠且有各自真实性标准的两个领域。人类的巨大进步是让真实性本能(常识的客观性)处于终极关怀和相应价值系统的支配之下。但是今天真实性的两大柱石正在被科学进步颠覆,真正令人担心的是:人正在无法抗拒地沦为聪明的“动物”——在一个人工智能真假不分的世界里,不会有是非,也不会有真正的道德感和生命的尊严。

人工智能可解释性之所以困难,根本原因在于其包含的不仅仅是数学语言,还有自然语言,甚至是思维语言(所以根本不可能迈过这道坎)。而人机融合智能不但可以进行主体的悬置,还可以游刃有余地进行主体变换,在人、机、环境系统交互中真正实时适时地实现深度态势感知,完成数学语言、自然语言、思维语言之间的能指、所指、意指切换,可以轻松地直奔目的和意图实现。

2.2、学习

人的学习学的不是知识,而是获取数据、信息、知识经验的方法;机器的学习学的是数据、信息和知识。不同的物质系统之间存在着相似性;同一物质系统的每个子系统与其整体系统之间也有相似性;具有不同运动形式和不同性质的物质系统,却遵守着相似的物理规律,这些事实都说明:相似性是自然界的一个基本特性。比如质量-弹簧-阻尼构成的机械系统与电阻-电感-电容构成的电路系统是相似系统,就反映了物理现象之间的相似关系(一般而言,相似关系可以用来化简复杂系统以便进行研究)。机器比较容易学习、迁移这种同质性、线性的相似系统,却很难实现异质性、非线性相似系统的类比、转换。但是人的学习却可以在对称与非对称、同质与非同质、线性与非线性、同源与非同源、同构与非同构、同理与非同理、同情与非同情、周期与非周期、拓扑与非拓扑、家族与非家族之间进行切换。

机器的学习离不开时间、空间和符号,而人的学习则是随着价值、事实、情感变化而变化的系统;机器的学习遵循并依赖已有的规则,而人的学习则是如何修改旧规则、打破常规则、建立新规则。例如真正优秀的领导人和指挥员在于如何打破规则——改革,而不是按部就班地迈着方步走向没落和腐朽。

2017年3月16日DARPA计划启动“终身学习机器”(Lifelong LearningMachines,L2M)项目,旨在发展下一代机器学习技术,并以其为基础推动第三次AI技术浪潮。DARPA认为AI技术的发展已历经第一次和第二次浪潮,即将迎来第三次浪潮。第一次AI技术浪潮以“规则知识”为特征,如Windows操作系统、智能手机应用程序、交通信号灯使用的程序等。第二次AI技术浪潮以“统计学习”为特征,如人工神经网络系统,并在无人驾驶汽车等领域取得进展。虽然上述AI技术对明确的问题有较强的推理和判断能力,但不具备学习能力,处理不确定性问题的能力也较弱。第三次AI技术浪潮将以“适应环境”为特征,AI能够理解环境并发现逻辑规则,从而进行自我训练并建立自身的决策流程。由此可知,AI的持续自主学习能力将是第三次AI技术浪潮的核心动力,L2M项目的目标恰与第三次AI浪潮“适应环境”的特征相契合。通过研发新一代机器学习技术,使其具备能够从环境中不断学习并总结出一般性知识的能力,L2M项目将为第三次AI技术浪潮打下坚实的技术基础。目前,L2M包含30个研发团队,通过不同期限和规模的合同资助开展工作。

2019年3月,DARPA合作伙伴南加州大学(USC)的研究人员发表了有关探索仿生人工智能算法的成果:L2M研究员兼USC维特比工程学院的生物医学工程和生物运动学教授Francisco J.Valero-Cuevas与该学院博士生AliMarjaninejad、DarioUrbina-Melendez和Brian Cohn一起,在《自然-机器智能》(Nature-MachineIntelligence)杂志上发表了一篇文章,文中详细介绍了人工智能控制的机器人肢体的成功研发过程。该肢体由类似动物的肌腱驱动,能够自学行走任务,甚至能自动从平衡失调中恢复。推动USC研究人员开发这一机器人肢体的是一种仿生算法,只需五分钟的“非结构化游戏”(unstructured play),就能自主学习行走任务;也就是说,进行随机运动,使机器人能够学习自己的行为模式和周围的环境。

当前的机器学习方法依赖于对系统进行预编程来处理所有可能的场景,复杂、工作量大且低效。相比之下,USC研究人员揭示,人工智能系统有可能从相关的经验中学习,因为随着时间的推移,它们致力于寻找和适应解决方案,以应对挑战。实际上,对于众多无限的学习而言,人是很难实现终身的,总有一些能学习到,还有许多另一些也一知半解甚至一无所知的更多,对于没有“常识”和“类比”机理的机器而言,终身学习也许就是一个口号。首先需要理清楚的应该是哪些能学,哪些不能学。

人类的学习是全方位的学习,不同角度的学习,一个事物可以变成多个事物,一个关系可以变成多个关系,一个事实不但可以变成多个事实,甚至还可以变成多个价值,更有趣的是,有时人的学习还可以把多个不同的事物变成一类事物,多个不同的关系可以变成一个关系,多个事实可以变成一个事实,甚至还可以变成一个价值。而机器学习本质上是人(一个或某些人)的认知显性化,严格意义上是一种“自以为”“是”,即人们常常只能认出自己习惯或熟悉的事物,所以,这个或这群人的局限和狭隘也就在不自觉中融进了模型和程序中,因而这种一多变换机制往往一开始就先天不足。

如果说,学习的实质就是分类,那么人的学习就是获得并创造分类的方法,而机器学习只是简单地被使用了一些分类的方法而已。DARPA的“终身学习机器”(LifelongLearning Machines,L2M)项目也许就是一个美丽的泡泡,尽管阳光照耀之下也会五彩斑斓,真正实现起来并不容易。

2.3、常识

知识只是常识的素材和原材料,机器只有“知”而没有“识”,不能知行合一。知识不应依附于思想,而应同它合二为一;知识如果不能改变思想,使之变得完善,那就最好把它抛弃。拥有知识,却毫无本事,不知如何使用——还不如什么都没有学——那样的知识是一把危险的剑,会给它的主人带来麻烦和伤害。其中限制知识这些副作用发作的最有效途径之一便是常识的形成,一般而言,常识往往是碎片化的,而态势感知就是通过对这些零零碎碎常识状态、趋势的感觉、知觉形成某种非常识的认识和洞察。另外,常识是人类感知和理解世界的一种基本能力。典型的AI系统缺乏对物理世界运行的一般理解(如直观物理学)、对人类动机和行为的基本理解(如直觉心理学)、像成年人一样对普遍事物的认知。

简单地说,上面介绍的“机器常识”是对抗博弈人机环境系统的新型拓扑系统,如同沃沃斯基创立的“主上同调”(motivic cohomology)理论。其中,真正厉害的不是那些基本的知识、条例和规则,而是应用这些基本的知识、条例和规则在实践中获得能力并成功的人,比如以毛泽东(湖南一师)、粟裕(湖南二师)等为代表的一大批非军事名校毕业的战略家和军事家最终以自己的常识打败了黄埔军系校长和将军们的知识。从中也可以得出:实践不但出真知,而且还出真智!真正的智能不仅是拥有丰富的知识,更重要地是高效地使用知识,如何有效地使用知识、协同知识才是智能的关键之处!

综上所述,在可解释性、学习、常识这些方面遇到的问题,更印证了人工智能很难在智能化领域取得信任。因此,未来智能化需要人机融合智能及深度态势感知。深度态势感知的优势在于能将人和机器两者的优势充分融合。深度态势感知的目标是在“复杂度、动态、多时空、不确定”的环境下,面对可能存在的关键信息不充足的情况下,进行有效信息提取、形成正确认知、迅速做出决策的需求。深度态势感知技术的发展,不仅仅是技术上的提升,能够发掘其在智能上的作用,创新智能领域的规则,引发智能领域的变革,其实更为重要。


3、影响未来智能化的关键因素

3.1、人机环境系统融合

近年来,AI的杰出代表阿尔法系列在围棋等博弈中取得了耀眼的成绩,但其仍是封闭条件下的相关机器学习和推理,而真正智能博弈的根本依然是开放环境下因果性与相关性混合的人类学习和理解活动,这种学习能够产生在一定程度上范围不确定的隐性知识和秩序规则(如同小孩子们的学习一样),这种理解可以把表面上无关的事物相关起来。种种迹象表明,未来的智能化可能就是人机环境系统融合的智能化。

知彼知己,百战不殆(关键之处在于先知彼后知己)。这里的知既包括人的感知,也包括机器的感知,人机之间感知的区别是人能够得意忘形,机器对于意向的理解还不能像人一样灵活深入;这里的彼既包括对手、也包括装备和环境,这里的己也包括己方的人、机、环境三部分。所以,没有人,就没有智能,也就没有人工智能,更没有未来的智能化。真正的智能或人工智能,不是抽象的数学系统所能够实现的,数学只是一种工具,实现的只能是功能,而不是能力,只有人才会产生真正的能力,所以人工智能是人、机、环境系统相互作用的产物,未来的智能也是机器计算结合人算计的结果,是一种结合计算的算计或是一种洞察,事实上,若仅是单纯的计算,算的越快、越准、越灵,危险往往越大,越容易上当受骗,越容易“聪明反被聪明误”,而中国成语“塞翁失马”就说明了计算不如人的算计和洞察。

近来,美军相关军种分别提出了多域战、全域战、马赛克战、决策中心战等作战模式,都是人机环境系统工程,是人、机、环境中各元素的弥散与聚合,是各种符号的分布式表征计算与众多非符号的现象性表示、算计、综合、混合、融合,同时也是机械、信息、知识、经验、人工智能、智能、智慧的交叉互补。

所以,人机融合智能机制机理的破解将成为未来智能领域的关键。任何分工都会受规模和范围限制,人机融合智能中的功能分配是分工的一部分,另外一部分是能力分配。功能分配是被动的,外部需求所致;能力分配是主动的,内部驱动所生。在复杂、异质、非结构、非线性数据/信息/知识中,人的或者是类人的方向性预处理很重要,当问题域被初步缩小范围后,机器的有界、快速、准确优势便可以发挥出来了;另外,当获得大量数据/信息/知识后,机器也可以先把他们初步映射到几个领域,然后人再进一步处理分析。这两个过程的同化适应、交叉平衡体现的就是人机有机融合的过程。

3.2、智慧化协同

未来的交互不仅是智能化的,更是智慧化的,未来的交互不但要打破形式化的数学计算,还要打破传统思维的逻辑算计,是一种结合人、机、环境各方优势互补的新型计算-算计博弈系统。这有点儿像教育,学校的任务是将知识点教授给学生(有点像机器学习一样),但教育不只是教授知识点,教育应该挖掘知识背后的逻辑,或者是更深层次的东西。比如,我们在教计算的时候,其实要去想计算背后是什么(1+1=2中的1、+、=分别是什么意思)。我们首先是应该培养学生们的数感,再去教他们计算的概念,什么是加、什么是减,然后教怎么应用,进而形成洞察能力。

在智慧化交互中,协同是必要的手段。从某种角度说,交互双方既是合作伙伴,又是竞争对手和战略对手(既要防止核/生化/智能武器失控,又要摧毁对方的意志并打败对手)。如果把男性看作力量,把女性看作智慧,那么未来的交互应该是女性化的以柔克刚,至少是混合式的交互。

无论人工智能怎样发展,未来是属于人类的,应该由人类共同定义未来的游戏规则并决定人工智能的命运,而不是由人工智能决定人类的命运。究其原因,人工智能是逻辑的,而未来的智能实现不仅仅是逻辑的,还存在着大量的非逻辑因素。如面对对手强劲的电磁频谱和网络空间博弈能力,各军种之间协同实施多领域作战时,信息通联、指挥控制系统,情报、监视、侦察等各个系统的无缝衔接和协调统一也将是一大考验。

所以,未来智能领域将是将人机环有效结合,并协同多方领域,形成的智慧化协同交互模式。


4、深度态势感知在智能化交互中的挑战

人机融合智能的优势在于能将人机两者的优势充分融合,然而,人类习惯于场景化的、灵活性的知识表达和多因素权衡、反思性的推理决策,这与机器的数据输入、公理化推理、逻辑决策机制有很大的不同,一旦无法将人机有机融合,两者互相掣肘,反而会降低人机融合智能决策系统的效率。当前,在人机融合的知识表征和决策机制等方面还有很多理论问题亟待解决。

人机融合决策机制方面主要的问题是:缺少基于人机沟通的个性化智能决策机制。人的风格千差万别,能够实现高效人机协作的智能系统一定是个性化的智能系统。“个性化”的智能系统不是简单的机器对人习惯的适应和迁就,而是应该建立一种人机沟通的框架和机制。系统的决策建议有可能是对人员思路的补充,也有可能与人员的指挥风格完全相反,通过不断实践获得反馈,人机融合决策能力获得迭代发展,最终实现个性化的辅助决策系统,达到人与机器的最优匹配。

2020年5月12日,美防务专家彼得·希克曼发表了一篇文章《未来战争制胜的关键在于人》。文章认为,随着战争的性质不断演变,人工智能将对战争的演变做出重大贡献,但过高估计技术变革的速度和先进技术在未来胜利中所起的作用仍具有风险。过分强调技术将会使竞争对手发现盲点,进而加以利用。追求尖端技术并无问题,但在未来战争中,制胜的关键因素依然是人。希克曼的观点与毛泽东同志有关人民战争思想是一致的:武器是战争的重要因素,但不是决定的因素,决定的因素是人而不是物。


5、结束语

人工智能的迅猛发展和广泛应用,已经成为新一轮科技革命、产业革命的主导因素,成为推进机器装备创新、信息革命进程和交互形态发生变化的核心力量。利用机器辅助人员完成指挥决策任务,辅助一旦产生,人和机必然会形成一种相互依赖关系。未来智能化将是认知中心战,主导力量是智力,智力所占的权重将超过火力、机动力,追求的是以智驭能。人机融合中的深度态势感知贯穿态势理解、决策、指控等各个环节,在各个环节中起到倍增、超越和能动的作用。

科学的缺点在于否认了个性化不受控不可重复的真实。所以基于这种科学性的基础必然会带来一些缺陷。人,尤其是每个人都是天然的个性化不受控不可重复的主体。从这个角度看,人机融合的实质就是帮助科学完善它的不足和局限。

大数据的优点是受控实验普遍具有可重复性,如此一来可以寻找共性规律——按图索骥;但是,这也是大数据的一个缺点,容易忽略新生事物——受控实验不可重复部分的出现,表现出刻舟求剑效应。有些受控实验不可重复之真实性也是存在的,但这不在科学范围内。以前是盲人摸象,现在是人机求剑。

未来智能化领域,博弈态势感知高度复杂、瞬息万变,多种信息交汇形成海量数据,仅凭人脑难以快速、准确处理,只有人机融合的运行方式,基于数据库、物联网等技术群,人员(人+机)才能应对瞬息万变的情境,完成交互任务。随着无人系统自主能力的提升,人工智能集群功能的增强,自主决策逐步显现。一旦调度系统实现不同功能的智能化,感知、理解、预测的时间将会大大压缩,效率明显提高。加上用于智能传感器图像处理的模式识别、用于交互决策的最优算法,将赋予人机系统更加高级的决策能力,逐步实现人与机的联合交互。

热门推荐