例如,LARS 相对于现有无人机系统的优势在于,它能够自行进行评估,做出决策或建议采取某些行动。因此,系统操作员不仅仅是根据视频和音频输入做出自己的决定,而且在很大程度上依赖于系统本身的分析。
这种对自动化系统的依赖导致了一种有据可查的人类反应,即自动化偏见(例如,参见Skitka 等人 2000 年;Mosier 等人 1998 年;Cummings 2004 年)。简而言之,人类倾向于相信自动化系统是万无一失的。我们依赖它们,我们期望它们提供的信息是准确的,即使我们的感觉告诉我们事实并非如此。这种反应在紧张的情况下会加剧,例如飞机驾驶或与本主题相关的战斗情况。
引入自动化系统的效果已在飞行控制场景中得到研究(Mosier 等人,1998 年),其中经验 手机号码数据 丰富的飞行员被置于一个模拟器中,该模拟器包括一个新的发动机火灾自动检测系统,该系统还会建议飞行员采取适当的行动。尽管他们被告知该系统并不完善,仅依靠它会很危险,但飞行员倾向于遵循系统建议,即使在驾驶舱中没有其他指示器建议采取行动的情况下也是如此。有趣的是,在汇报中,绝大多数飞行员说他们记得存在其他指示器,尽管客观上情况并非如此。
这些实验表明
人类尽管拥有复杂的大脑能力,但在可用时却倾向 Flexport 与 Ketch 合作推出直观、无需代码的隐私合规解决方案 于严重依赖自动化系统,而这可能会带来有害甚至致命的后果。
由于这种现象在被认为有压力或时间敏感性的案例中往往会增加(Cummings 2004),因此 LARS 的操作员很有可能会受到这种现象的影响。这意味着,尽管决策是由处于循环中的人做出的,但实际上,这个人是盲目地依赖 LARS 提供的分析和建议来做出决策的,因此,增加人类并不一定会对 LARS 的自主性产生 邮寄线索 明显影响。
因此系统与人类互动的方式至关重要
这种互动必须经过精心设计,以避免出现自动化偏差。理论上,LARS 可以向人类提供其收集的所有相关数据,以判断目标属于军事性质,攻击是适当的。这种方法会让任何个人不知所措,以至于不可能在合理的时间范围内浏览所有数据,因此不切实际。
因此,数据需要以一种允许人类进行适当分析的方式呈现。后一种更可能的方法有几个缺陷。首先,不清楚 LARS 做出了哪些假设,或者哪些偏见可能影响了其结论。因此,LARS 收集和呈现数据的方式将变得更加重要。人工智能系统的难点在于,虽然它们不像电影中那样“叛逆”,但它们的学习模式也无法准确预测。可能会出现错误,应该予以纠正,这个过程不仅需要复杂的数据分析,而且需要比现实世界中通常可用的时间更长的时间。