• 发送页面
  • 打印页面

完全自主武器系统

25-11-2013 发言

瑞士,日内瓦,法国常驻联合国代表团,“完全自主武器系统”研讨会。红十字国际委员会武器处负责人凯瑟琳•拉万德的发言。

在我的发言中,我将介绍红十字国际委员会关于本研讨会所涉及问题的观点。首先,我要说红十字国际委员会关注自主武器系统已经有好几年了。2011年10月,在第31届国际红十字与红新月大会上,我们在题为“国际人道法与当代武装冲突中的挑战”的报告中公开表达了对这类武器的担忧。昨天(9月2日),我们在官方网站上发布了简短的“常见问题”来表明我们的立场与忧虑。
我也希望在此提请各位关注非政府组织和其他独立参与方去年做出的有关自主武器的报告和呼吁——特别是人权观察组织提出的报告和呼吁、“阻止杀人机器人”的国际活动以及联合国法外处决、即审即决或任意处决问题特别报告员克里斯托弗•海恩斯教授于5月份向联合国人权理事会提交的有关“致命自主杀人机器人”的报告。在强调这类武器的发展所带来的风险以及国际社会迫切需要关注这一问题的必要性方面,上述参与方发挥了十分重要的作用。

我也应该从一开始就强调,红十字国际委员会目前虽然没有参与暂停或禁止自主武器系统的呼吁,但我们敦促各国在研发自主武器之前全面考虑自主武器使用所涉及的基本法律、伦理和社会问题,并保证在无法确保国际人道法得到遵守的情况下不要使用此类武器。

红十字国际委员会期望在11月《常规武器公约》缔约国会议召开前的几周内以及将来进一步提请各国关注这一对武装冲突以及人类未来都很重要的问题。

定义

什么是“完全”自主武器系统?“自主”意味着什么?

尽管关于这一主题有许多专业文献,但相关术语的使用却缺乏一致性。如果各国希望以更加明确的方式讨论自主武器,无论是在常规武器公约缔约国会议上或其他地方,那么都需要更加仔细地研究相关术语和定义。

什么不是自主武器:

“自主武器”应区别于“自动武器”——有时被称为“半自主”武器系统,一般而言其使用在时间和空间上都有限制。
自动武器是以自足完备和独立的方式运行的,虽然它们最初可能由操作人员进行部署或指示。一旦被激活,这类系统可以攻击由操作人员选定(设置)的个体目标或特殊“目标群体”。它们在设定好的可控环境中严格执行预编程行动或序列。此类系统的实例包括自动岗哨炮和末敏弹(包括某些反车辆地雷)。在自动化系统的高端层面,这类武器包括目前正在使用的高自动化防御系统,例如正在战舰或陆地上使用的C-RAM 系统(反火箭、火炮和迫击炮系统)。我们认为这类高自动化系统实际上是“人在导线一端操作”,即在人的监控下运行的。

在红十字国际委员会有关2011年挑战的报告中,该组织表示“最近科技的发展逐渐加强了此类系统区分某类军事目标与民用物体的能力。尽管如此,目前仍无法预测这类系统将来在多大程度上能够进行区分,此类系统的主要挑战仍将是如何确保其能够以某种方式得到使用从而能按国际人道法规定区分军事目标与民用物体。”

“自主武器”也必须区别于“无人机”——又名无人驾驶飞机或遥控驾驶飞机(RPA) ——属于遥控武器。

遥控驾驶飞机一般由战区之外的机组成员操作和控制(机组成员由一名飞行员和一名有效载荷操作员组成),并由一组信号和图像情报分析员支持。遥控驾驶飞机需要操作人员选定目标并激活、瞄准和发射相关武器。简言之,遥控驾驶飞机作为一种武器平台本身并不是非法的,但其使用带来了一系列的忧虑,红十字国际委员会主席彼得•毛雷尔在一篇专访中表达了这些忧虑(红十字国际委员会网站2013年5月发布的采访)。

什么是自主武器:

“自主武器”可以被视为在武器“渐增自动化”进程中随时间不断发展的最终产物。

基于红十字国际委员会对专业文献的理解,“自主武器” 被设计为可以根据自身所部署的环境中不断变化的情况,随时学习或调整运转的武器。 真正的自主武器能够在无人干预或操控的情况下搜索、识别并使用致命武力攻击包括人类在内的目标(敌军战斗员)。
这一定义意味着它是具有某种形式人工智能的移动系统,能够在无人控制的情况下在动态环境中运行。

应该强调的是此类“完全”自主武器仍处于研究阶段,尚未得到开发,更没有在武装冲突中部署。然而这一领域的技术能力正在高速发展。

自主武器给国际人道法带来了哪些挑战?

国际人道法规定,任何新武器、作战手段或方法在使用过程中必须能够符合国际人道法有关作战行为的规则,特别是攻击中的区分、比例和预防原则从而保护平民。

我们不应忘记,国际人道法规定,各国必须评估其希望研发或获取的某种新武器的合法性,从而设法预防或限制在某些或所有情况下可能受到禁止的作战新科技的发展和部署。(根据日内瓦公约第一附加议定书第36条)

红十字国际委员会对于自主武器系统遵守国际人道法的能力存在若干担忧。特别是,发展自主武器系统在实施攻击时完全遵守国际人道法区分、比例和预防原则的能力,如今看来在程序设计方面似乎面临巨大的挑战。事实上,它很可能被证明是不可能的。

首先,自主武器是否能够根据区分原则来将平民和战斗员区分开来?特别是,它是否能够区分直接参与敌对行动的平民和有武装的平民,如执法人员或猎人等(后者仍应享有免受直接攻击的保护)?它是否能够区分现役战斗员和受伤或失去战斗力的战斗员?自主武器是否能够确定一名士兵是否有真正的投降意图?实现上述功能似乎是一项艰巨的任务。

第二,自主武器系统是否能够适用国际人道法的比例性原则?——如果攻击所造成的平民附带伤亡和民用物体损害与预期的实际直接军事利益相比可能过大,则禁止实施此类攻击。此类评估似乎需要人类所独有的判断力,特别是在战场这种动态环境中,通过攻击既定军事目标而实现的预期军事利益可能时刻都在变化。

第三,自主武器如何能够评估、选择和适用攻击中所需的预防原则以尽量减少平民伤亡?这同样需要对于在战场上什么是可能的和实际的这一问题进行高度情境化的评估,而且可能需要人类所独有的判断力。

还有,从技术角度来说,有朝一日有可能设计出一种自主武器系统,完全能够遵守攻击中的区分、比例和预防原则。自主武器在战场上也许能够比人类更道德和更审慎地行事——机器人想必不会受到情绪或个人利益的影响。

另一方面,此类武器的部署会反映出敌对行为整体架构的转变和重大质变。最终,问题在于,公众良心是否会允许机器在无人控制的情况下做出生死决定并使用致命武力。

另一个关键问题是确定谁应该对自主武器系统实施的违反国际人道法的行为负责?对于严重违反国际人道法行为(战争罪)的国家责任和个人刑事责任当然是保护武装冲突受害者的重要因素。如果该行为可以归咎于具体国家,无论是根据国际人道法还是国家责任规则,该国均应负责赔偿。

但确定个人刑事责任则更具挑战性。将责任归咎于一台机器或电脑似乎不太合理。那么谁将对自主武器系统所做的决定负责:程序员、制造商或部署该武器系统的指挥官?如果根据国际人道法无法确定责任,那么部署这种系统是否合乎法律或道德?

结论

关于自主武器等任何新兴的战争科技,重要的是确保在充分了解相关信息的情况下讨论所有相关问题,提醒各方有必要评估其可能造成的潜在人员伤亡和对国际人道法的影响,并确保在无法保证国际人道法得到遵守的情况下不要过早使用此类武器。