发言

联合国安理会:绝不能让人工智能在缺乏监督监管的情况下部署于战场

红十字国际委员会首席法务官科尔杜拉·德勒格在纽约联合国安理会关于“人工智能与维护国际和平与安全”的公开辩论会上的发言。
UNSC

主席先生,各位阁下:

此次关于人工智能与维护国际和平与安全的辩论正当其时,红十字国际委员会对此深表欢迎。

我今日的发言是基于红十字国际委员会160年来在战场上积累的经验——每当新型武器或作战方法出现,我们的代表都曾亲眼目睹其造成的后果。

这些后果并非新型武器开发者和使用者所宣称或期望的结果,而是实际产生的后果:或好或坏,或违背良知。

或许我们首先应厘清当前可见的具体风险,继而放眼全局,从历史上所有新技术被武器化的案例中汲取必须铭记的教训——因为新技术在历史上始终难逃被武器化的命运。

在军事领域我们已甄别出三类具有重大风险的人工智能应用:用于自主武器系统中的人工智能;用于军事决策中的人工智能;以及用于信息通信技术中的人工智能。

这些新型人工智能应用的倡导者们总是强调其军事效用,但每项应用都伴随着风险:

人工智能赋能的自主武器能在通信受限的环境中搜索并攻击目标;但人工智能也增加了人类使用者无法理解、预测和控制武器功能及效果的风险——这使其具有不分皂白的特性并违反国际人道法。

人工智能决策支持系统能在数秒内整合分析来自多个信源的海量数据,为指挥官提供目标锁定或拘留建议;但其处理速度与规模,通过自动化偏见被进一步加速和扩大,可能导致人类使用者简单地盖章式批准,从而取代人类判断而非为其提供支持。

人工智能赋能的网络能力可识别并利用敌方计算机系统的新漏洞。然而这同时增加了发动不分皂白攻击、对平民基础设施造成附带损害及冲突失控升级的风险——尤其在复杂互联的数字环境中,更不必说由算法做出拘留决定的卡夫卡式荒谬场景。

主席先生,

请允许我稍作回顾。新技术的推广者常宣称,基于人工智能的系统能加强对国际人道法的遵守,并最大限度降低平民风险。

红十字国际委员会自创立以来就总是听到,所有战场新技术的推广者都曾宣称新型武器将“更加人道”、杀伤力更低、更为精准。

一战时期,化学武器被宣传为比火炮更温和;上世纪八十年代,致盲激光武器被宣称比子弹杀伤力更低。

但这既非我们所见证的历史真相,亦非我们所目睹的当下现实。

若审视当今技术最先进的冲突,我们看到的并非平民境遇的改善,而是最广泛、最不分皂白的破坏。

新技术鼓吹的特性并未带来精准打击、区分目标和采取预防措施,反而加速、放大并加剧了破坏性,给平民造成了可怕的后果。

因此,让我们以证据为指南,以清醒的头脑评估人工智能的武器化问题:我们不能——也必不应——允许这些系统在缺乏监督和监管的情况下继续被研发与使用。

这种监督和监管必须基于对这些系统是否有可能遵守国际人道法和伦理原则的现实评估,否则在人工智能问题上,我们将面临与1948年布拉德利将军描述的核武器困境如出一辙的境地:

“这个世界取得了辉煌的成就却缺乏智慧,获得了强大的力量却缺乏良知……我们身处一个核武巨人与道德婴孩并存的双面世界。”

因此,我将以两点请求作结:

首先,我们重申秘书长与红十字国际委员会主席的联合呼吁:各国必须尽快缔结具有法律约束力的文书,对自主武器系统设定明确的禁令与限制。

其次,我们敦促各国在军事人工智能方面采取以人为本的工作方法,切实评估其遵守国际人道法的可能性,确保在所有可能危及受武装冲突影响民众之生命与尊严的决策中,始终保持人类控制与判断。

为此,各国应在联合国安全理事会和联合国大会框架内就军事人工智能展开系统性的讨论,并以红十字国际委员会的初步建议、秘书长报告及其他相关资源作为参考与借鉴。

谢谢。