关注热点
聚焦行业峰会

风险取机缘:人工智能正在军事决策系统中的使
来源:安徽安阳祥瑞交通应用技术股份有限公司 时间:2025-04-29 20:45

  美国智库平安取新兴手艺核心发布《人工智能正在军事决策中的使用》,切磋人工智能赋能军事决策支撑系统的简化框架。2。文章指出,人工智能正在军事决策中具有庞大潜力,但同时也存正在合用范畴、数据系统得出的结论能否有其锻炼数据的支持、人机系统集成等环节问题。3。为此,批示官应设定基于情境取风险的摆设尺度、对操做人员进行培训取天分认证、成立持续的认证评估机制、指定“负义务人工智能”官员,以及记实人工智能系统的事务取风险,并建登时方演讲数据库以推进学问共享。2025年4月,美国智库平安取新兴手艺核心(CSET)发布《人工智能正在军事决策中的使用》(AI for Military Decision-Making),文章切磋了供批示官评估人工智能赋能军事决策支撑系统的简化框架。启元洞见编章次要内容,旨正在为读者领会人工智能正在军事决策中的使用供给参考。人工智能无望以超越人类的速度处置海量数据,从而帮帮军事批示官更好地舆解疆场态势。军方有着充实的动机来操纵人工智能手艺,而正在各兵种中,对此最感乐趣的是那些担任和平中做和决策的批示官。这些批示官必需正在节拍敏捷、维度多变的疆场中持续不竭地“察看、判断、决策、步履”,每一个决策都关乎。汗青上,为了维持疆场态势、支撑军事打算制定,以至预测敌方将来动向或反映,军方一曲正在押求各类先辈东西,这促成了从气候建模、和役建模到预警系统等多种手艺的降生。然而,对人工智能决策支撑系统(AI-DSS)的利用,必需以对其能力取局限性的清晰认知为前提,并应以此认知来决定这些系统正在何时、以何种体例被摆设。当一位军事批示官初次接触AI-DSS时,很可能会被其所展示出的整合和处置海量数据的速度取便利性所吸引。这类系统确实能够加强态势清晰度,协帮完成的决策。然而,领会这些系统正在何时何地最适合摆设,以及若何规避其固有风险,是军事批示官负义务且高效利用AI-DSS的环节。本文旨正在为高层决策者供给一个简化的参考框架,帮帮他们从宏不雅层面思虑能否利用或摆设人工智能驱动的决策支撑系统。以下三个焦点问题可做为评估的起点。当前已有的一些AI-DSS具有很是明白的使用范畴,例如某个能够通过图像识别狙击手盲区的东西,或是一个用于审查文件以决定能否能够对盟友公开的系统。AI-DSS的合用范畴越清晰、定义越明白,批示官越可以或许将其用于合适情境,也能避免将其用于未经测试和验证的用处。当评估某个AI-DSS的合用范畴能否合理时,批示官应沉点关心以下几个方面:现代决策支撑系统正在高风险中的遍及挑和之一,是基于深度进修模子建立的系统,即当前支流的人工智能范式正在使用于取锻炼显著分歧的场景时,往往容易失效。例如:若试图通过只针对某一种阿拉伯语方言优化的感情阐发算法,去阐发整个中东地域的社会活动,将面对严沉误差。系统必需正在分歧的做和前提下颠末充实测试,明白其正在何种情境下表示优良、正在哪些前提下容易失效,并将这些消息清晰传达给利用者。一些决策支撑东西声称能够通过摄取海量数据来预测将来事务,例如社会动荡的可能性或军事袭击的发生。某种程度上,这类预测并非全新概念,人类早就起头预测气候,而且现在已能供给较为精准的短期气候预告。但气候是一种持久被不雅测、具有完美监测手段、并遵照较为明白物理纪律的现象,即便如斯,气候的靠得住预测也凡是只能笼盖将来一周摆布。比拟之下,人类行为取决策则复杂得多、理解程度更低,且无法完全不雅测。因而,若某AI-DSS的使用范畴涉及将来预测或预判,其输出成果必需接管更严酷的审查。软件处理方案正在不怜悯境中具备矫捷迭代的能力本是一大劣势,但对于AI-DSS来说,这种“矫捷性”有时反而会成为一种现患。例如,用于计谋层级投资决策的模子,往往成立正在大量假设或专家经验根本之上,并不合用于需要快速反映的做和决策场景,通俗用户更难以准确理解和使用。一个用于和术层面、借帮狂言语模子(LLMs)为谍报军官总结演讲的AI-DSS,也不该间接供给给一位缺乏相关布景学问的高级批示官,由于他可能难以发觉脱漏的谍报信号、判断错误或模子“”带来的风险。若是不设立清晰的利用鸿沟,操做人员很可能会正在不知不觉中超出系统的合用范畴,其去完成超出原始开辟取验证布景的使命。这不只会降低使命完成的靠得住性,还可能带来严沉的平安或伦理现患。例如,考虑一个公允的硬币抛抛。你能够多次抛硬币,并正在脚够多的尝试后对“反面朝上”的概率为50%有极高的决心。然而,这并不克不及帮帮你削减对下一次抛抛是反面仍是的不确定性。换句话说,这种不确定性是不成消弭的。AI-DSS的利用者可能想晓得诸如“仇敌接下来会怎样做?”或者现实版的“我的敌手正在‘石头剪子布’中下一步会出什么?”这类问题本身就带有无法完全消弭的不确定性。比起简单的抛硬币,军事做和决策要复杂得多,由于几乎不成能做到完满丈量、精准建模。总之,这意味着人类正在疆场决策中仍必需阐扬判断力。AI-DSS能够帮帮削减一些未知要素和必然程度的不确定性,但批示官也必需认识到这些系统的局限性,并理解它们无法完全消弭不确定性。系统得出的结论能否有其锻炼数据的支持?这些数据是若何采集的?更新频次若何?此中能否存正在非常值、离群点或其他犯警则性?现代机械进修系统依赖于大量数据进行开辟。当高质量且相关性强的数据充脚时,建立一个运转优良的系统就会相对容易。以气候预告为例,我们具有大量高保实度的数据,涵盖温度、气压、云层构成、降水等方面,而且对驱动气候变化的物理机制也有较强的理论理解。环节正在于,这些数据是正在我们试图预测的中采集的。有些研究人员测验考试通过模仿数据来扩展数据集,但这种方式的结果取决于所用模仿的质量。模仿数据只要正在精确反映现实的环境下才无效。当我们领会所涉及的机制,而且能通过测试验证模仿的精确性时,例如正在基于物理机制的系统(如导弹、坦克、飞机、舰船)中,模仿就更容易实现。然而,正在不领会或无法测试其内正在机制的环境下,模仿就难以见效,好比正在社会决策等问题中,模仿数据可能底子不起感化。戎行批示官正在疆场上往往难以获得精确、全面的己方和敌方消息。即即是己方部队,火线单元可能因通信受限,无法及时或精确传输本身的、形态等环节数据;某些平台可能仅正在特定区域摆设了单一传感器,导致其采集的数据被过度放大,覆没了来自其他渠道的消息,使得人类取人工智能系统对此类数据发生依赖误差。正在获取敌方谍报方面,坚苦更为凸起。一些敌手具备较强的反侦查能力,长于规避谍报监测,以至自动实施取数据操控。这使得关于敌方的消息呈现出高度不服衡的形态:某些敌对方的数据相对充脚,而另一些则非常稀缺,进一步加大了批示判断的不确定性取风险。有误差的数据将导致AI-DSS呈现误差,这一点必需明白传达给利用者。此外,当人工智能系统中的误差取操做者本身或其文化相分歧时,这种误差可能会被进一步放大。人类相关数据又会带来另一类问题。例如,社交平台往往反映了各类人类;而社交上的言论也遭到手艺、心理和社会等要素的配合影响,可能并不实正在地反映现实行为以至实正在概念。因而,仅通过社交情感阐发来预测骚乱就是一个典型案例,其根本数据本身就很亏弱,若正在此根本上得出的结论占领从导地位,该当持高度思疑立场。虽然正在社交行为模式、旧事报道和市场动态方面能够收集到大量数据,但某些我们实正想预测的成果(如骚乱事务)的发生次数本身可能很是少。同样地,军事场景中也遍及存正在“小样本问题”。正在缺乏脚够不雅测数据的环境下,AI-DSS的价值可能不如保守的谍报阐发方式,后者可以或许依赖对具体环境更深刻的布景理解,分析使用推理取经验得出更靠得住的判断。人类操做者若何理解机械的输出成果?正在特定情境下,人机协做系统做为一个全体,其能力和局限性正在哪里?正在评估能否适合将人工智能系统用于决策支撑场景时,除了考量人工智能系统本身的特征外,还必需关心人类操做者若何接管锻炼、以及他们若何取人工智能进行交互。狂言语模子(LLMs)带来了奇特的挑和。特别值得留意的是,它们经常会自傲地陈述现实上错误的消息,这一行为凡是被称为“”,对用户具有极强的性。不只如斯,LLMs还经常保举的“来由”。这些来由凡是更合适用户的预期,而非实正反映其内部推理过程。已有研究显示,这些不实正在的注释可能反而加强用户对错误的信赖取接管程度。用户本身存正在的认知,可能正在取AI-DSS的交互中被加剧,也有可能被缓解。常见的认知包罗:确认偏误(倾向于寻找支撑本人假设的);恍惚厌恶(倾向于已知风险而非未知风险);负面(对负面消息付与更沉而轻忽反面消息)。正在AI-DSS中特别值得关心的一种是从动化偏误:即便用户本身的显示某一结论可能错误,他们仍倾向于相信从动化系统的判断。AI-DSS能够加速决策过程、削减所需人力资本,但这些手艺带来的便当也可能使军事批示官“用更少资本做更多事”。虽然部门决策正在人工智能和从动化系统的辅帮下简直能够提速,但必需明白:决策的速度和数量应按照具体风险情境进行调整,而不是一味逃求快;同时,还应关心决策过程和东西的质量。此外,还需认识到某些AI-DSS系统看起来利用便利,可能会使组织及其人员倾向于正在所有场景中都依赖这些系统,但现实上,这些系统可能只合用于高风险情境或某些特定的极端环境。AI-DSS正在特定情境中可能具有计谋价值,但这种价值并非没有风险,军事批示官必需采纳措以节制。本文向考虑若何摆设这些系统并规避风险的带领者提出以下。批示官正在摆设AI-DSS时,应充实考虑摆设的时间、地址取具体情境。此外,AI-DSS的摆设应具有可逆性,一旦现场场面地步发生变化、影响系统机能,应及时调整或终止摆设。批示官还应成立一套明白的流程取尺度,用于判断AI-DSS能否应继续摆设。这一流程需考虑以下几个维度:凡是AI-DSS操做人员,特别是用于方针或兵器利用支撑的系统操做员,都必需接管系统化培训。培训该当从平安下的进修取尝试起头,并需快速过渡到更具实和性的锻炼。对于AI-DSS的操做,应成立一套包含院校培训取实和经验两方面的资历认证系统。涉及致命性决策的AI-DSS操做人员,培训流程中还应插手严酷的、量身定制的查核内容,通过查核后由所正在单元批示官正式授予其操做资历认证,该资历该当取其正在AI-DSS中的脚色和义务相婚配。即便AI-DSS设想合理、操做人员具备天分,组织层面的施行能力仍需批示官进行持续评估,以确保其可以或许精确地贯彻批示企图。因为AI-DSS摆设变化屡次,因而评估应屡次以至常态化进行。取此同时,做为一个数据系统,AI-DSS应按期记实和保留系统利用环境取结果数据。批示官招考虑若何将AI-DSS的机能评估目标嵌入日常流程,或取数据科学家、人工智能测试取评估专家、做和阐发人员共享,以实现以下两个目标:人工智能的风险取机缘正正在快速演变,且这种趋向短期内难以放缓。因而,火急需要正在戎行内部普及人工智能素养,虽然人工智能所带来的挑和具有必然奇特征,但从军事平安办理的角度看,也具有取其他类型平安风险类似的应对逻辑。例如,戎行按照使命需要,凡是会设有职业平安官、测试平安官等岗亭。雷同地,RAI官员能够做为下层单元中接管过专业培训的手艺资本人员,既能为AI-DSS操做员供给支撑,也能做为消息通道,演讲人工智能相关事务并传达来自研究机构或美国上级部分的最新。人工智能系统存正在缺陷,人类操做员也可能正在利用过程中呈现失误。为了尽可能避免前车之鉴,《负义务人工智能东西包(Responsible AI Toolkit)》已明白指出,人工智能激发的风险该当被记实正在案。截至目前,美国仍正在制定一套针对军方需求的人工智件记实流程。本文支撑此类工做,并军方成立一小我工智件地方数据库,供操做人员取研究人员阐发取检索,以提拔经验共享取系统通明度,从而加强信赖。本文,RAI官员应承担起记实这些风险事务的职责,雷同当前平安官担任变乱初步演讲的职责模式。同时,虽然军事带领者可能更倾向于将事务演讲正在军内渠道或加密保密处置,但本文也呼吁他们应审慎考虑部门事务公开的价值,一方面,能够帮帮其他戎行或平易近用部分避免雷同风险;另一方面,这种通明度有帮于成立信赖;此外,若将来人工智能系统毛病可能被误判为敌对行为,公开事务演讲也有帮于之间的危机沟通取消弭。人工智能无望提拔疆场上的决策质量取效率,但它永久无法代替人的判断力。AI-DSS所展示的强大能力常常令人发生一种“它无所不知”的错觉:它们可以或许整合分歧来历的数据、处置海量消息,并以超越人类的速度生成决策。然而,AI-DSS也存正在一系列环节性的弱点,这些问题必需被无视并加以干涉。操做人员正在利用时应高度本身可能发生的从动化(即无前提相信机械,即便取本身相悖)。要正在疆场上实正把握AI-DSS所带来的机缘,批示官必需提前预备好本人和团队的认知取操做能力,以准确地利用这些系统。对AI-DSS的利用范畴、数据质量、人机协做体例等问题的充实思虑,是避免系统弱点的第一步。这些短板本身并不克不及否定AI-DSS使用的来由,但它们必需取人类的聪慧取判断彼此连系,才能实现最优的做和成果。

 

 

近期热点视频

0551-65331919