人工智能武器使暴力失去人格化,使军方更容易批准更多的破坏

气候作者 / 编辑 / 2024-11-25 06:24
"
11月22日(IPS) - CIVICUS与哈佛大学肯尼迪学院中东倡议博士后Sophia Goodfriend讨论了人工智能(AI)军事用途所带来的危险。人工

11月22日(IPS) - CIVICUS与哈佛大学肯尼迪学院中东倡议博士后Sophia Goodfriend讨论了人工智能(AI)军事用途所带来的危险。

人工智能在全球的崛起引发了人们对其对人权的影响的担忧,尤其是对被排斥的群体,其有争议的用途从国内警务和监视到“杀戮名单”,比如以色列用来确定导弹袭击目标的名单。数字权利组织呼吁制定一个人工智能治理框架,优先考虑人权,并禁止人工智能最危险的用途。虽然最近的联合国决议承认人工智能的人权风险,但需要采取更果断的行动。


我们为什么要害怕ncerned一关于人工智能及其当前和潜在的用途?

人工智能正迅速融入世界各地的军事行动,特别是在武器系统、情报收集和决策方面。它日益增强的自主性减少了人类的监督,引发了严重的担忧和科幻小说中的恐惧,即机器在没有有意义的人类干预的情况下做出生死决定。

无人机、自动化武器和先进瞄准系统等基于人工智能的技术现在是军事武器库的一部分。军方对这些系统的日益依赖引起了重大关注,因为它们在很大程度上不受国际法的管制。这些技术所依赖的监控水平违反了国际法和许多国家民权法对隐私的保护。

这些技术的快速发展和部署超过了监管的速度,使公众基本上没有意识到它们的影响。如果没有适当的监督,人工智能可能会以造成广泛伤害和逃避责任的方式被滥用。我们迫切需要规范人工智能的军事用途,并确保其符合国际法和人道主义原则。

此外,错误或有偏见的数据可能导致毁灭性的错误,引发严重的道德和法律问题。这些系统做出的决定可能会破坏战争中的比例原则和区别原则,使平民的生命处于危险之中。

举个例子来说明人工智能目前是如何被使用的?

以色列军方正在使用人工智能辅助瞄准系统来识别和打击加沙的目标。这些系统分析通过无人机、卫星、监控摄像头、社交媒体和手机黑客收集的大量数据,以识别潜在目标,定位目标,并决定在何时何地杀死人们。

人工智能生成的“杀戮名单”引发了严重担忧。有缺陷或有偏见的数据已经导致了毁灭性的错误,记者和人道主义工作者在罢工中丧生。还有指控称,军方扩大了对谁或什么构成有效目标的定义,允许对可能不符合国际法标准的人或地点进行攻击。

这些系统以前所未有的速度和规模运行,创造了大量的目标。如果没有彻底的监督,它们有可能造成广泛的破坏。在加沙行动的士兵只有20秒的时间来批准目标,包括哈马斯武装分子,但也包括那些根据国际战争法和人权标准不被视为有效军事目标的人。

这对道德回应意味着什么造成损害的责任?

像Lavender系统这样的人工智能辅助定位技术并不是完全自主的。它们仍然需要人类的监督。这是一个关键点,因为这些技术的破坏性只与掌权者的破坏性一样大。这一切都取决于军事领导人的决定,这些决定可能符合也可能违反国际人权法。

与此同时,使用机器来瞄准和摧毁可能会使暴力失去人格化,使军事人员更容易授权进行更多的破坏。将决策外包给人工智能,有放弃道德责任的风险。这种技术手段使军事行动看起来更加高效和理性,这有助于用看似合乎逻辑的理由为每次轰炸辩护,但它也使平民伤亡和随之而来的广泛破坏失去人性。

当前的人工智能治理是否有效框架是否足以保护人权?

简短的回答是否定的:目前的人工智能治理框架在保护人权方面存在不足,尤其是在军事应用方面。虽然大多数国家都同意人工智能驱动的武器——从完全自主武器到人工智能辅助武器——应该遵守国际人权法,但目前还没有全球框架来确保这一点。

这导致人们呼吁制定更全面和可执行的规则,并且已经采取了一些积极的步骤。例如,民间社会团体和研究人员成功推动《联合国某些常规武器公约》禁止全自主武器,得到了100多个国家的支持。因此,联合国秘书长呼吁在2026年通过一项具有法律约束力的条约,全面禁止全自主武器,这种武器由人工智能驱动,但没有人类监督其操作。

欧盟也采取了行动,禁止一些军事人工智能应用,如社会评分系统——根据人们的社会行为给他们打分——作为其人工智能法案的一部分。然而,欧盟仍然缺乏针对军事人工智能的具体规则。

生命未来研究所(Future of Life Institute)、人权观察(Human Rights Watch)和停止杀手机器人(Stop Killer Robots)等组织在推动变革方面发挥了重要作用。但随着硅谷科技公司的首席执行官和风险资本家推动人工智能在更少监管的情况下更快发展,它们正面临越来越大的挑战。这令人担忧,因为在特朗普新政府的领导下,这些强大的人物现在将对人工智能政策产生更大的影响。

人工智能公司在确保遵守人权原则方面应发挥什么作用?

企业可以发挥关键作用。近年来,许多领先的公司,如亚马逊、bb0、微软和OpenAI,都公开声明了他们对人权的承诺。例如,OpenAI呼吁建立一个类似于国际原子能机构(International Atomic Energy Agency)的监管机构,其创始人承诺不允许他们的技术被用于军事目的。亚马逊、bb0和微软也有合理使用政策,它们声称这些政策确保了它们的技术是按照人权原则使用的。

但在实践中,这些政策往往达不到要求,尤其是在军事应用方面。尽管有这些说法,但其中许多公司已将其技术出售给军队,而且它们参与军事人工智能开发的程度往往不清楚。就在几周前,The Intercept报道称,美国军方非洲司令部通过微软购买了OpenAI软件。我们还知道,以色列军方使用谷歌云服务瞄准加沙地带的炸弹,使用亚马逊网络服务存储巴勒斯坦领土上平民的机密监视数据。

这在相关公司内部引发了抗议,工人们举行罢工,要求提高透明度和问责制。尽管这些抗议很重要,但人工智能公司最终只能做这么多,以确保他们的技术得到合乎道德的使用。我们需要更强有力、更全面的关于人工智能军事用途的国际法,各国政府必须承担责任,确保这些法律在国家层面得到执行。

与此同时,许多科技公司的首席执行官,如埃隆·马斯克(Elon Musk),已经放弃了他们之前对人权的承诺,更倾向于与特朗普等右翼政治领导人结盟。贝宝(PayPal)的彼得•蒂尔(Peter Thiel)和Palantir Technologies的亚历克斯•卡普(Alex Karp)等一些首席执行官认为,私营企业需要与军方密切合作,以保持美国的技术优势。这在人权倡导者和科技巨头之间造成了紧张关系,突显出需要更强有力的监管框架来追究这些公司的责任,并防止人工智能被用于破坏人权的方式。

保持联系

网站linkedIn Twitter

另请参阅

在人工智能监管中,人权退居次要地位人工智能:“最大的挑战是算法的偏见和缺乏透明度”人道主义开放地图团队采访2023年8月24日人工智能监管:“必须在促进创新和保护权利之间取得平衡”——采访Nadia Benaissa 2023年7月25日

©Inter Press Service(2024) -保留所有权利

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读