导言
不同层次的自主性和当前人工智能在战争中的应用
巡飞弹药:目前的能力
最近冲突中的使用情况和效果
a. 纳戈尔诺-卡拉巴赫冲突(2020 年)
b. 乌克兰-俄罗斯冲突(2022 年)
增强自主性的法律挑战
它们区分合法目标与民用目标和平民的能力; 附带伤害平民和损坏民用物体的风险; 人类操作员理解该系统并验证其操作符合国际人道主义法的能力。关于第一点,有观点认为,要使系统能够自行区分合法与非法目标,就必须为其配备扫描仪和传感器,使其能够区分民用物体和军事目标。然而,在战争中,环境往往会迅速发生变化,因此,这些事先根据特定条件和特定参数设计和编程的系统将无法考虑战场上随时间发生的所有变化因素和变量,并相应调整其交战参数,从而导致潜在的不可预测的结果,以及攻击中的歧视。即使在人类仍能控制触发器的系统中,研究也表明,在快节奏、压力大和不确定的条件下,操作员可能只是不加批判地过度依赖系统的建议,这种情况被称为 "自动化偏差"。第二点与战争中的相称性原则有关,该原则要求军事指挥官在攻击前采取一切可能的预防措施,以免造成与预期军事优势不相称的过度损害(《第一附加议定书》第 51.5b 条)。因此,在决定自主实施攻击时,这些系统需要通过定性分析来判断对合法目标实施的攻击是否被认为是相称的,或者是否已经采取了所有可行的预防措施,从而使程序符合这一规则。有人认为,这种背景评估始终需要人类的判断。第三点也是最后一点涉及自主系统的可预测性。事实上,为了遵守相称性和预防性规则,指挥官必须确信他选择使用的武器将以某种方式发挥作用,并将产生可预测的可靠效果。如果武器在任何环境或情况下的效果都无法控制或无法完全预见,那么他就有可能违反国际人道主义规则(同上)。红十字国际委员会对这些与注入了更先进、更独立的人工智能的日益自主的系统相关的法律和伦理风险尤为关注。红十字国际委员会一直主张为自主武器系统的开发和使用制定一套全面的、具有约束力的规范和规则,例如限制目标类型、地理范围和使用环境,并规定必须有人类监督。从这个意义上说,2016 年,在《联合国特定常规武器公约》(CCW)的工作范围内成立了一个政府专家组,讨论与致命性自主武器系统领域的技术有关的问题。2019 年,政府专家小组通过了一份指导原则清单,旨在帮助成员国在讨论致命性自主武器系统的法律和伦理风险时找到共同点。虽然政府专家小组定期召开会议讨论此类问题,但制定此类系统监管框架的道路似乎还很遥远,主要原因是对致命性自主武器系统尚无一个共同认可的定义,因为它需要涵盖更广泛的人机交互主题。

结论:未来会怎样?
请关注专知智能防务公众号(点击上方关注)
更多相关内容请上专知查阅,左下角点击“阅读原文”查看
欢迎微信扫一扫加专知助手,咨询服务:中文报告购买、资料定制