人工智能的兴起要求在冲突地区采取以人为本的方式

人工智能的兴起要求在冲突地区采取以人为本的方式

数月以来,随着ChatGPT等聊天机器人的发展,人工智能广受关注。但对于人工智能在冲突中的应用及其对平民的影响,人们关注较少。本月早些时候,红十字国际委员会总干事罗伯特·马尔迪尼访问了伦敦,我们借此机会请他谈谈对军事领域和人道界中的人工智能的看法。
报道 2023-07-24 英国

对于计划将人工智能和新技术用于军事目的的国家和其他各方,您有何建议?

军事技术和人工智能正在以令人难以置信的速度发展,在某些情况下国际社会甚至来不及商定有效的管理框架,这令人担忧。我们始终希望确保技术进步有助于人道行动,有利于冲突地区的平民和其他受保护人员,而不是增加他们所面临的风险。

从我们的角度来看,围绕人工智能军事用途的对话需要将日内瓦四公约及其附加议定书中规定的国际人道法原则纳入其中。国际社会应采取以人为本的方式来处理在受冲突影响地区使用人工智能的问题。需要设立防护性措施,以帮助加强现有保护措施并减少其他风险。

红十字国际委员会担心人工智能会带来哪些风险?

我毫不怀疑,对于人道行动和我们努力帮助的民众而言,人工智能可以成为一股积极力量。但也有许多风险需要考虑。

例如,从我们在冲突地区开展工作的角度来看,人工智能在军事决策或自主武器方面的应用,可能会给平民和战斗员带来重大风险。我们无法接受将生死决策交由机器或算法来执行的想法。在任何影响人类生命或尊严的决策中,人类的控制和判断必须是不可或缺的。

当我们从更广泛的角度来审视新技术时,可以说当今武装冲突已不再局限于海陆空,而是同时在网络空间进行。网络攻击可能会对平民造成重大影响,因为他们所依赖的数字系统和工具在军事行动中会被削弱、摧毁或扰乱。

例如,当医院成为网络攻击的受害者时,就会妨碍向平民提供医疗服务。当供水或能源基础设施成为网络攻击的目标时,基本服务就会中断——而付出代价的正是平民。破坏通信系统的网络攻击会使平民无法获得最新的准确信息,并可能导致他们在关键时刻与亲人失去联系。

多年来,我们一直明确表示,战争规则,即日内瓦四公约,同样适用于网络空间。我们还一直在研究数字红十字/红新月标志的概念,这将使在武装冲突中开展网络行动的人员更容易识别和避免损毁受保护的设施。

人工智能在你们的会议议程中占据怎样的位置?

人工智能在所有议程中都占据重要位置。对于英国而言也显然如此,其将在今年晚些时候主办的全球人工智能安全峰会就凸显了这一点。

我们很幸运能与英国进行强有力的建设性对话。这种对话使我们能够在涉及冲突地区的人工智能和新技术问题时提出我们的人道关切。

在谈到军事场景中的人工智能时,对于所有国家,我们的立场都是:他们需要采取以人为本的方式,且必须非常谨慎地对待人工智能在武器系统中的任何应用。

随着英国准备在今年晚些时候举办人工智能会议,我们期待着参与这些重要讨论,确保国际人道法成为对话的一部分。

平民越来越多地参与到数字战场中,这引起了多大程度的关切?

这引发了一系列关切。根据国际人道法,冲突各方必须区分平民和战斗员,以及民用物体和军事目标。在实际冲突中,这种区分通常是不言而喻的。但数字化战争有可能模糊这一界限。

社会和战场的数字化意味着与过去相比,让平民参与军事网络和数字活动变得更加轻而易举。事实上,我们正在看到一种趋势:平民越来越多地参与冲突,在某些情况下,他们通过数字化手段直接助力军事行动。

就此而言,战争规则非常明确:平民除非直接参与敌对行动,否则应受到保护免遭攻击。平民参与数字战争是否构成直接参与敌对行动是一个复杂的法律问题。但是,如果国家鼓励平民参与此类活动,就有可能使他们面临遭受严重伤害的风险。

因此,我们需要坚守平民与军队之间的明确界限。各国应避免鼓励平民直接参与敌对行动,或至少确保平民充分了解他们可能面临的风险以及如何保护自己。