··江苏社会科学2023年第2期20世纪70年代,塞尔(JohnSearle)首次提出了“强人工智能”概念,认为“计算机不仅仅是用来研究人的思维的一种工具,只要运行适当的程序,计算机本身就是有思维的”[1]。业界认为相对于弱人工智能,强人工智能的优势在于“机器可以全面、综合地复现人类的所有思维能力,且聪明程度能够达到或超过人类”[2]。2022年9月,AlphaGoZero被证明能够独立于人类的经验知识与指令,通过感知领域的深度学习和决策领域的不断强化学习,最终实现智力的自我进化。强人工智能设备可能带来的风险又一次引发广泛关注和担忧。关涉到战争领域,以智能无人作战为主导的未来战场将呈现出“零伤亡、高智能和无人制胜”的特点。随着自主武器系统的深入研发与实践应用,战争形态的范式转变所强人工智能设备面临的伦理困境与风险张亦佳内容提要基于“人是目的”的价值设定而建立起的“伦理至善”第一原则让强人工智能设备的研发和应用首先遭遇道德合法性的论证难题。“有限的道德合法性”为其谋求到了一个伦理存在空间。以致命性自主武器系统(LAWS)为例,“有限性”的前置条件则让关于其“道德责任代理人”的准确识别与划分成为首要问题。以道德判断能力为标准,将作为“工具”的机器和作为“具有实践智慧”的人做明确划分是准确识别LAWS责任代理人的逻辑基础。基于道德责任代理人的逻辑梳理,即使被完美道德编码的LAWS作为“非道德”的机器在应用中也可能会遭遇“不道德的人”的伦理难题。这是我们可预见且对国际关系构建和整个人类社会发展可能产生颠覆性影响的伦理威胁。从这个角度看,谨防出现基于“技术野蛮”的“寡头恐怖主义”这一时代命题要求我们尽快对相关强人工智能设备给出一套有效的、缜密的预防性伦理应对机制。关键词强人工智能致命性自主武器有限的道德合法性道德主体寡头恐怖主义张亦佳,河海大学马克思主义学院博士研究生、南京财经大学助理研究员本文为国家社会科学基金项目“战争形态智能化的伦理约束机制研究”(20CZX057)的阶段性成果。[1]J.R.Searle,"Minds,Brains,andPrograms",BehavioralandBrainSciences,1980,3(3),pp.417-457.[2]王彦雨:《“强人工智能”争论过程中的“态度转换”现象研究》,《科学技术哲学研究》2020年第6期。58DOI:10.13858/j.cnki.cn32-1312/c.20230328.002··强人工智能设备面临的伦理困境与风险引发的道德困境和挑战将会是人类未来必须面对的重大伦理议题。自主武器系统的研发初衷是减...