人工智能安全:挑战与机遇(2)
人工智能在军事领域的发展和应用已经成为很多国家的国家战略,相应的治理工作应当在现有的国际安全架构开展。今年9月在日内瓦召开的联合国常规武器公约的讨论中,各方并未就制定禁止人工智能驱动的致命性完全自主武器的条约达成共识。全球约有共26个国家支持全面禁止人工智能武器,而绝大多数国家还在观望。在规则不确定和大国战略竞争的背景下,人工智能在军事领域发展面临的风险和威胁在不断增加。加强人工智能的国际治理工作,降低军备竞赛风险则是当务之急。
经过2014年和2015年的两次非正式会议后,在2016年12月16日关于特定常规武器公约的联合国会议上成立了致命性自主武器系统(LAWS)政府专家组(GGE)。该小组的任务是研究致命性自主武器领域的新兴技术,评估其对国际和平与安全的影响,并为其国际治理提出建议。
人工智能引发的安全问题是专家组的一大重要分歧,技术强国与弱国之间存在截然不同的观点。技术弱国认为应当完全禁止致命性自主武器的开发使用,技术大国则持相反意见,认为开发致命性自主武器可以降低人员损伤,有利于打击恐怖主义和维护国家安全,并且很多系统已经在战场上进入实战。
军事是推动技术进步的重要因素,互联网就是由美国军方所发明,人工智能的技术发展背后也有军事因素的强力推动。但是,人工智能的科技竞赛也非技术之福,特别是致命性自主武器的扩散会造成更为严重的后果。因此,从联合国层面制定相应的规范,并且促成大国之间在发展致命性自主武器上达成一定的军控条约是当务之急。
联合国政府专家组应制定致命性自主武器系统和人工智能军事应用的目标。其中,最重要的一个目标是制定相应的国际法,在国际法不明确的情况下,各国应克制在军事领域使用人工智能武器。联合国政府专家组也应考虑对国际法此前未曾预见的情况追加法律限制,并以道德或伦理为由尽量减少对人和平民的伤害。更进一步的目标包括管理以下情况的操作风险,包括降低使用武力门槛、意外导致不应有的伤害、造成意外的升级螺旋式增长以及产生军备竞赛和扩散。
当然,从联合国角度来达成一项谈判可能需要十年甚至更长的时间,鉴于越来越多的风险,大国之间应当及早就人工智能在军事领域应用可能带来的潜在风险开展对话,及早启动相应的军控进程。短期内促成技术强国在谋求战略优势和国际安全体系稳定之间的妥协。
各国政府在制定人工智能在军事领域的战略时,还应当高度重视人工智能的治理工作。比如,无论是半自主和全自主的武器系统的设计,应允许指挥官和作战人员在使用武力方面作出适当的人为判断。为保证这一要求的实现,需要严格的设计、对设计的测试和评估、操作验证和测试,解决系统错误和故障的安全工程以及避免人为错误的认知工程。
在决定是否使用人工智能武器时,应当制定明确的规范和流程,避免造成不可预测的后果。同时,还应当加强对人工智能武器的安全性,避免安全泄露,或者是随意转让相关技术。无论是无意或者有意地扩散都会增加军备竞赛的风险,威胁国际安全体系。