针对这些问题,美国已发布指令,要求所有此类机器人系统实际上不会以完全自主的方式运行,而将始终在“人为控制”下运行。这一声明显然意在削弱至少是法律上的批评,以及可能削弱与部署 LARS 相关的其他批评。
人为参与然而有人可能会说
部署有人参与的 LARS 和部署全自动版本一样存在问题。虽然打击目 WhatsApp 号码数据 标的决定始终由人来监督,但我认为,这并不一定会对系统的运行产生足够的影响,从而足以防范全自动设置带来的问题。
首先,“人机协同”这个术语并不是很具体。系统在人机协同下运行的方式有很多种。例如,每个 LARS 都可以由一个“操控者”操作,操控者会持续监控 LARS 的行动,任何交战都需要操控者的授权。因此,LARS 可以在没有输入的情况下运行,但会受到持续监控,任何交战决定都必须得到操控者的批准。这种情况与当前的无人机操作员密切相关。主要区别在于,系统不仅响应操控者的输入,而且具有一定程度的独立性:特别是,它能够对情况进行自己的评估并将其传达给操控者。
另一种方法是只在需要做出交战决定的关键时刻才让人参与
这通常被称为“人参与”。在这种情况下,一个人,可以说 结果:以客户为中心的隐私体验,并有系统集成计划 指挥官,将在收到 LARS 的许可请求后,确定是否确实存在需要或允许使用武力的情况。这意味着 LARS 已部署并可以独立行动,无论是静 邮寄线索 止还是其他方式,并且只有在它认为应该交战目标的情况下才会“呼叫回家”。在这种情况下,一名指挥官可以同时操作相对大量的单位。这种方法对军事行动成本有明显的好处。操作员不一定监视整个过程,而只会收到系统识别的目标的通知,并有一个短暂的窗口来覆盖系统并中止交战(例如Phalanx 系统,以及三星 SGR-A1上的报告功能)。
,即,处于环路中的人类不一定一直在监控系统的决策过程,而且人类实际上不需要与目标交战,但只能在短时间内推翻该决定。然而,前一种方法表面上看起来与当前的无人机操作只有一小步之遥,但实际上可能同样存在争议,这是由于一种称为自动化偏差的现象。
自动化偏见
LARS 的开发部分基于这样一种理念:使用这种自动化系统可以消除战争领域中的任何人为错误。不再有战斗疲劳(或创伤后应激障碍,随便你怎么称呼它),不再有死亡的阴影导致错误的决定,不再有不可预测的情绪反应。这一理论依赖于这样的假设:只要机器运转正常,就不太可能犯错,因此值得信赖。