(SeaPRwire) – 多个国家周一在联合国举行会议,重新审视一个国际机构已经讨论了十多年的话题:缺乏对致命性自主武器系统 (LAWS)(通常被称为“杀手机器人”)的监管。
最新一轮会谈正值乌克兰和加沙战火纷飞之际。
虽然会议是闭门举行的,但联合国秘书长发表声明,重申了他为解决LAWS构成的威胁设定2026年达成具有法律约束力的解决方案的最后期限。
古特雷斯在一份声明中说:“有权力和酌情权在没有人类控制的情况下剥夺人类生命的机器在政治上是不可接受的,在道德上令人厌恶,应该被国际法禁止。”他后来补充说:“我们不能将生死攸关的决定委托给机器。”
红十字国际委员会 (ICRC) 主席米里亚娜·斯波利亚里奇向参加周一会议的各国发表了声明。 斯波利亚里奇表示,红十字国际委员会支持监管 LAWS 的努力,但警告说,技术的发展速度快于法规,这使得这些系统构成的威胁“更加令人担忧”。
斯波利亚里奇说:“在没有人为干预的情况下,有权力和酌情权夺取生命的机器有可能以对人道主义产生严重影响的方式改变战争。 它们还会引发根本的伦理和人权问题。 全人类都将受到影响。”
根据联合国的说法,人工智能不一定是某事物被认为是自主武器的先决条件,因为并非所有自主系统都完全依赖人工智能。 有些可以使用预先编程的功能来执行某些任务。 然而,联合国表示,人工智能“可以进一步促进”自主武器系统的发展。
保守派伙伴关系研究所副总裁Rachel Bovard表示,虽然有必要对自主武器进行监管,但美国在人工智能的发展方面需要谨慎。
“人工智能是蛮荒的西部,每个国家都在试图确定游戏规则。 一些监管对于维护我们的人性至关重要。 然而,在国际法方面,美国应谨慎行事,”Bovard告诉 Fox News Digital。“正如我们从贸易到健康等各个方面所了解到的那样,将我们的国家主权置于国际指令之下可能会产生持久的意外后果。 如果现行国际法目前足够充分,那么就应该用它来管理。”
《特定常规武器公约》的成员国自 2014 年以来一直在举行会议,讨论是否全面禁止在没有人为控制的情况下运行的 LAWS,并规范更多人为参与的 LAWS。
2023 年,160 多个国家支持一项联合国决议,呼吁全球各国解决 LAWS 构成的风险。 然而,目前还没有专门监管 LAWS 的国际法。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。