农业无人机
工业无人机
军警无人机
娱教无人机
水下无人机
反无人机设备
无人机配件
无人机租赁
无人机培训
当前位置:全球无人机网 » 无人机新闻 » 国际新闻 » 正文

攻击机器人、终结者、自主武器——人工智能的未来

发布日期:2023-08-16我要投稿我要评论
在美国有线电视新闻网 (CNN) 最近的一次有趣采访中,前总统巴拉克·奥巴马被问及人工智能的未来,以及随着人工智能技术的爆炸式增长以及许多人考虑其影响而主导讨论的各种哲学、技术和伦理变量。在明确强调人工智能继续为世界带来颠覆性创新的同时,他用简洁的语言总结了人工智能应用中可能最重要的复杂性或挑战……“机器可以”我感到高兴,”他告诉美国有线电视新闻网。

奥巴马在描述人工智能新应用的出现和迅速到来如何继续迅速改变事物时说这番话,带来了看似无限的新希望,同时也带来了挑战和复杂性。他在与 CNN 的讨论中很快赞扬了人工智能的优点,但也提到了人工智能的挑战或局限性,因为人类独特的属性,如情感、奉献和其他更主观的现象无法用机器来近似。确实如此,虽然国防工业创新者和空军研究实验室等五角大楼重要机构正在探索人工智能以某种方式估计、计算或分析更主观现象的方法,但显然存在许多人类认知、直觉、心理细微差别所独有的变量、道德、意识和情感似乎是数学生成的算法根本无法复制,甚至无法开始真正准确地近似。这就是为什么领先的武器开发商很快解释说,任何最佳的前进道路都涉及混合或组合,涉及五角大楼最喜欢的术语……“有人与无人协作”。

然而,这并不意味着人工智能的优点和可能性应该被低估,正如陆军研究实验室的高级研究人员解释的那样,就人工智能真正能够实现的目标而言,“我们正处于冰山一角”。这就是为什么五角大楼正在衡量人工智能在非致命防御力量背景下的快速成功和前景。人类决策能力与高速人工智能生成计算的速度和分析能力相结合,已经创造了改变范式的创新。想象一下防御人工智能武器系统可以挽救多少生命?在陆军融合项目等关键的现代战争实验中,人工智能也已经大大缩短了从传感器到射手的曲线。

这些复杂性是为什么我们继续做出如此多的技术努力来提高人工智能生成的分析的“可靠性”,以便通过机器学习和实时分析,机器可以确定上下文并准确地处理可能会出现的新材料。不成为其数据库的一部分。正如前空军研究实验室指挥官希瑟·普林格尔少将向 Warrior 描述的那样,这是人工智能的前沿新领域。

“当今的人工智能是数据库密集型的。但未来可以而且应该是什么?我们如何才能将它从仅仅作为一个数据库升级为可以利用概念和关系、或情感和预测分析的东西?那么,我们人类能做的事情还有很多是人工智能做不到的吗?我们如何实现这一目标?”空军研究实验室前司令希瑟·普林格尔少将在今年早些时候的一次采访中告诉《勇士》。

“循环之外的人工智能”可以拯救生命

如果像一群微型无人机爆炸物接近进行攻击或一波来袭高超音速导弹以五倍音速的速度接近,人类决策者可能无法足够快地做出反应。事实上,军事指挥官可能没有任何机会反击或确定最佳的防御行动方案。

人类决策者不仅没有时间权衡威胁变量,而且武器操作员本身也可能不堪重负,无法在收到命令时检测、跟踪、交战或对高速同时攻击进行开火。只是根本没有时间。

人在循环中
人工智能在军事技术、武器和高速计算领域的出现和迅速成熟,让许多人提出了一个紧迫且相关的问题……到底多久才能出现能够自主发现、跟踪、瞄准和识别目标的“终结者”型武装机器人?无需任何人为干预即可摧毁目标?

答案是,在某些方面,技术已经存在……然而,还有许多复杂的概念、技术、哲学和政策变量需要考虑。远程操作的武装机器人已经存在,甚至被投入战争多年,这意味着武器系统由人类远程控制,而无需机器对致命武力做出任何决定或决定。这完全符合五角大楼现行和长期的原则,即在做出有关使用致命武力的决定时,必须始终有人参与其中。那么非致命武力呢?鉴于人工智能决策能力、分析和数据组织的快速成熟,这个前沿问题现在受到五角大楼的关注。

从本质上讲,一个人工智能系统,可以聚合和分析不同的传入传感器数据池,是否应该能够准确辨别致命和非致命力量之间的区别?人工智能拦截器能否用于无人机防御或立即消灭敌方火箭、无人机、火炮或迫击炮的方法?

联合反无人机系统办公室负责能力和需求的部门主管马克·E·佩里尼上校在 2021 年的一次电话会议上表示:“目前我们无权让人员介入。”根据五角大楼去年发布的一份报告。“根据国防部现有的政策,在决策周期内的某个时刻必须有一个人来授权参与。”


然而,高速、支持人工智能的计算机和传感器到射击者的连接,再加上新兴威胁的速度和范围,是否会开始影响这一方程式?也许确实存在一些战术情况,其中部署能够在几秒(甚至几毫秒)内跟踪和拦截逼近威胁的自主系统既符合道德又极其有利。

佩里尼在五角大楼的报告中解释说,现在有一个新兴的讨论领域,涉及人工智能在多大程度上可以实现“环内”或“环外”人类决策,特别是在考虑到无人机群等威胁。

人工智能现在所实现的精确度和分析保真度水平至少在某种程度上激励五角大楼考虑这个问题。先进的算法,如果加载了必要的数据,并通过机器学习和进行识别所需的分析来支持,现在就能够处理、解释和成功分析大量不同的数据。

复杂的算法可以同时分析许多原本互不相关的变量,例如敌方物体的形状、速度、轮廓及其热和声特征。此外,算法现在还可以评估这些与周围环境、地理条件、天气、地形和有关特定威胁与特定射手、拦截器或对抗措施交战的历史实例的数据相关的交织变量。支持人工智能的机器越来越能够以集体方式进行分析,哪种响应可能是最佳的或最适合特定的威胁场景?

支持人工智能的机器能否在几毫秒内做出这些决定,从而在战争中大量挽救生命?一群思想家、武器开发商和未来学家正在从概念和技术意义上评估这种可能性,探索所谓的武器和自主的“循环外”可能性。这非常有趣,因为它提出了一个问题:人工智能或自主武器系统是否应该能够在“非致命”情况下开火、射击或使用武力。

当然,目前的努力并不是“改变”五角大楼的学说,而是一种探索,因为防御部队和部署反措施的时间窗口可能会呈指数级缩短,从而在美军受到攻击时可以在战争中挽救生命。从技术上来说,这种能力至少在某种程度上是存在的,但这并不能解决伴随这种意外事件而来的某些伦理、战术和理论问题。

美国人工智能和网络安全领域的顶尖专家之一、前五角大楼高级专家表示,这些都是复杂、微妙且极其困难的问题。

“我认为这既是一个哲学问题,也是一个技术问题。从技术角度来看,我们绝对可以实现这一目标。从哲学的角度来看,我们对底层机器的信任程度,我认为这仍然可以是一个公开的讨论。因此,拦截无人机的防御系统,如果它有地对空导弹组件,那么它的失火或错误识别仍然是致命的。我认为,如果防御系统有可能失火,我们必须非常谨慎地将其视为非致命系统,因为防御系统仍然可能导致死亡。当谈到防御应用时,有一个强有力的理由……但我认为我们确实需要看看在我们太过出格之前对这些防御系统采取了哪些行动,”Ross Rustici,

鲁斯蒂奇进一步阐述说,在“干扰”或某种非动能对抗措施(如果失火或发生故障,不会伤害或伤害人)的情况下,使用人工智能和计算机自动化确实要高效得多。然而,在致命武力的情况下,要完全“信任”人工智能机器做出决定,仍然存在许多可靠性问题。

“我希望看到的未来是有更多内置的错误处理功能,这样当传感器性能下降时,当存在信息可靠性问题时,您就可以作为人类做出决定。现在存在将被损坏、破坏或不完整的数据提供给习惯于过度依赖这些系统的人的风险。错误仍然可以通过这种方式引入到系统中。我认为尝试这样做是非常正确的保持人机界面分离,让人们对技术持怀疑态度,以确保我们尽最大努力不会发生错误。”Rustic 解释道。
 
本文链接:https://www.81uav.cn/uav-news/202308/16/75194.html
标签:  
0相关评论
免责声明:凡注明来源全球无人机网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,请注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

图文推荐

推荐品牌

关于本站

合作服务电话

  • 客服热线:0755-23779287
  • 展会负责:18682042306
  • 广告合作:点击这里给我发消息
  • 展会合作:点击这里给我发消息

公众号/APP下载


    (公众号)


    (Android下载)

Copyright©2005-2021 81UAV.CN All Rights Reserved  访问和使用全球无人机网,即表明您已完全接受和服从我们的用户协议。 SITEMAPS 网站地图 网站留言
运营商: 湛江中龙网络科技有限公司 全球无人机网 
ICP备案号:粤ICP备2023038372号-1 
全国公安机关 备案信息 可信网站不良举报 文明转播