农业无人机
工业无人机
军警无人机
娱教无人机
水下无人机
反无人机设备
无人机配件
无人机租赁
无人机培训
当前位置:全球无人机网 » 无人机新闻 » 国际新闻 » 正文

战场上的人工智能

发布日期:2020-05-07我要投稿我要评论

随着人工智能的发展,关于战争道德的充满争议的问题变得更加复杂

人工智能(AI)的伦理问题正困扰着不少该领域的专家。为调查这一问题而成立的一个特别委员会在2019年底公布了其建议,该委员会由赫兹利亚跨学科中心的卡琳·纳翁教授领导。该报告描述了不负责任地使用人工智能工具的风险,以及在开发技术产品时考虑人工智能因素的重要性。

但是,该报告只涉及该问题的民事方面。委员会故意忽视了与军事应用中人工智能的整合相关的考虑,尤其是人类生命中最神秘的价值。讨论中的伦理考量有多重要?美国国防部2018年发布的一份文件称,道德和安全是国防部发挥主导作用的因素之一。

去年12月,赫兹里亚跨学科中心召开了关于人工智能与现代战争的会议。微软以色列商业法律顾问Adv。本·哈克莱(Ben Haklai)概述了有关此事的话语界限,这只是处于起步阶段。他说:“政府和研究机构仅在过去两年中才开始深入讨论这些问题,但是直到现在,所有的研究才开始具有具体的性质。” 该会议是为期一周的计划的一部分,该计划在国际刑法和人道主义法诊所的框架内接待了来自欧洲和美国的许多代表团。来自以色列和美国,意大利,中国,波兰和德国等国家的学生参加了会议。

难以调查决策

似乎几乎每个以色列人都熟悉AI中伦理考量的重要性。当一枚“铁穹”(Iron Dome)导弹“决定”不对从加沙地带发射的一枚火箭发射拦截器时,即便它不会击中有人居住的地区,该系统也在做一个合乎道德的决定。然而,“铁穹”事件相对简单,因为它既面临着生命与财产损失的两难境地,也因为每个炮兵连都有士兵监督其活动。该系统还提供情报和精度,以便对导弹的预期着陆地点进行非常准确的预测。对于IDF使用的另一个具有自主能力的系统—奖杯坦克保护系统,情况变得稍微复杂一些。这是在前线进行的,它的行动很容易危及在该地区移动的步兵。

如何对将在更复杂的环境中操作的武器进行编程,例如在建筑物密集地区操作中使用的无人驾驶汽车的情况下?就像部署在朝鲜和韩国边界上的那种——一种必须探测入侵者意图并“决定”是杀死他们还是让他们通过的武器?这些问题还没有明确和绝对的答案。这正是讨论这件事的原因。

哈克莱在演讲中解释了军事背景下各种可能的局势如何变得越来越复杂。铁穹顶是一个相当简单的情况的例子,在这种情况下,机器可以做出决策,但是人类士兵可以干预该决策并将其撤消。

最简单的情况是机器只推荐一个动作;只有这个人才能决定是否执行它。另一方面,最困难和最具挑战性的情况是,在这种情况下,人被排除在外,而机器自己做决定。随着技术的发展,无人机、无人驾驶飞行器(uav)和其他机器人完全自主行动成为可能,这种情况将变得越来越重要。

恰恰在这种情况下,三星制造的SGR-A1机器人被放置在朝鲜与韩国之间的非军事区。该机器人由红外摄像机和语音识别系统组成。它具有在警告动作和射击橡皮子弹或其他弹药之间进行选择的能力。机器人可以完全自主地行动,但是它仍然包含供操作员执行命令的选项。Haklai解释说SGR-A1是其程序员面临的道德困境的一个很好的例子-“是对机器进行编程以拍摄移动的一切物体,还是先尝试验证是否有人参与其中,以及是否有人参与其中,无论他或她正在举手还是投降。”

哈克莱认为,这次讨论的特殊之处在于“与民用应用相反,负责使用自动武器后果的一方首先是整个国家,此后便出现了一个问题,即究竟谁在指挥系统中承担责任。”

责任不是唯一的方面。为了监督此类武器的活动,必须具有追溯调查决策的能力。“所有工程师都会跳进来,并提醒所有人,人工智能是一个黑匣子,这意味着机器做出的每个决定背后的逻辑都是无法理解的,因为它基于人类可以找到的大量数据没有逻辑。深度学习系统中的神经元网络实际上会生成无限的决策树或图表。” 问题开始于一个事实,即“大多数人类社会将无法接受发生杀戮的情况,而无法解释其发生原因”。

Haklai通过从普通汽车向自动驾驶汽车过渡的例子比较了民用挑战与军事挑战。他说,尽管公众愿意接受合理的死亡率作为生意价格的一部分,但他说:“不愿接受无人驾驶飞机炸弹轰炸乡村的案件的意愿就较小。”

Haklai说,未来的解决方案可能会存在于将解码AI决策方式的其他内容中。“已经有一些初创公司致力于算法,可以为AI决策提供合理的解释。没有这种能力,将很难改进原始算法。”

将网络安全整合到发展中

由于用于武器系统的基于AI的系统的开发人员面临固有的失败,所有这些挑战变得更加困难。基于深度学习的系统能够产生的见解的质量取决于它们可以分析的数据的质量和数量以及它们所基于的数据。Haklai解释说,如果没有足够的数据,问题就开始了。Mobileye的传感器已安装在全球数百万辆汽车上,这些传感器在世界各地的道路上行驶,并将无数有关事件的数据输入系统。这些数据使系统能够不断学习和改进。

像Google这样的公司的自动驾驶汽车也是如此,它们会在人们驾驶的汽车旁边行驶,收集数据并学习。AI武器系统将处理哪些数据?会浪费数千小时的战斗飞行员吗?美国国防部找到的解决方案是与私营部门合作使用模拟器,例如Microsoft的AirSim模拟器,用于在实验室条件下训练算法,以代替现场试验。

最后,Haklai解释说,当涉及军事需求时,必须在基于AI的系统的开发阶段彻底了解网络方面。例如,哈克拉(Haklai)断言,应包括检测使用Deepfake技术的工具,这些工具可以创建看似真实的视频或音频剪辑。Haklai说,除非从一开始就包含这些工具,否则普通系统将很难理解正在努力欺骗它。

如果听起来很复杂,那仅仅是开始。这些解决方案很难在单个文化框架中应用,但是当它所基于的整个价值层次发生变化时,会发生什么呢?哈克莱举例说明了中美之间的差异。在一个社会中什么是合理的,在另一个社会中不一定是合理的。“广泛使用摄像机进行面部识别和每个人的信用等级被认为是正确管理制造公司的一种合理方法。这种看法上的差异绝对是原则问题。”

评论:各国不应该把舞台让给科技巨头

微软(Microsoft)等公司参与设计管理技术世界的规则,以一种最引人入胜的方式,突显出该公司在军事领域参与人工智能工具的开发。算法必须用大量的数据来训练,但是由于系统不能在真实的情况下训练,所以有必要使用模拟器。

由于私人公司控制着模拟程序的编程方式,这意味着它们实际上参与了未来武器的使用设计。这不仅仅是猜测。这种施加影响的能力与公司的思维方式一致。微软总裁布拉德·史密斯(Brad Smith)在2019年11月警告说,除非技术巨头对防止滥用技术造成限制,否则人工智能很可能成为难以反击的武器。

微软和其他开发此类模拟器的公司很有可能会根据国家为它们设置的规则和限制来构造它们,但是还有另一种可能性-这些行动原则中的某些将是工作和思想的结果。公司。“公司立法”由公司为其自身制定的规则组成。几乎每个网络冲浪者都亲自遇到过这些规则。当Facebook阻止发布种族主义煽动行为的用户时,我们了解“惩罚”的法律依据。但是,当用户因为发送过多的好友请求并违反“社区标准”而被阻止时,会发生什么情况?这是Facebook对其用户执行的规则之一,有时这些规则对用户生活的影响大于州法律。” 这里发生了一些有趣的事情。公司的立法比政府的立法变得越来越重要。”以色列最大和最知名的律师事务所之一的高级律师说。

在法学院中,众所周知和研究的是,立法者对技术进步及其适应的反应非常缓慢。在AI的情况下尤其如此,这尤其是因为监管机构的技术知识方面的差距以及无法赶上技术巨人办公室而非监管机构办公室中对监管和道德规范的深入思考的结果监管机构或民选官员的委员会。

如果没有更好的话语权,除了法律和技术专家之外,还需要有公共代表,因此,技术公司将成为制定使用技术规则的公司。当涉及到对我们的生活造成难以想象的深远影响的人工智能技术时,让猫来守护霜的危险就更加危险了。
 
本文链接:https://www.81uav.cn/uav-news/202005/07/70492.html
标签:  
0相关评论
免责声明:凡注明来源全球无人机网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,请注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

图文推荐

推荐品牌

关于本站

合作服务电话

  • 客服热线:0755-23779287
  • 展会负责:18682042306
  • 广告合作:点击这里给我发消息
  • 展会合作:点击这里给我发消息

公众号/APP下载


    (公众号)


    (Android下载)

Copyright©2005-2021 81UAV.CN All Rights Reserved  访问和使用全球无人机网,即表明您已完全接受和服从我们的用户协议。 SITEMAPS 网站地图 网站留言
运营商: 湛江中龙网络科技有限公司 全球无人机网 
ICP备案号:粤ICP备2023038372号-1 
全国公安机关 备案信息 可信网站不良举报 文明转播