摘 要  
 自动驾驶电车难题是检验人工智能伦理可行性的一块试金石 
 , 
 面对不同情境 
 , 
 其计算程序既要作出可决定的、 
 内在一致的判断决策 
 , 
 又要与人类的普遍道德常识相兼容 
 。  
 康德义务论给出了具有普遍性与一致性的理论框架。  
 自动驾驶电车的道德决策可视为由计算程序执行的第三人称视角司法判决。  
 康德式道德决策以法权义务为基础 
 , 
 并在经验判断中纳入人性法则作为道德评价的优先法则, 
 能够为自动驾驶电车难题提供一种针对一切理性存在者且符合常识道德认知的解决方案。  
 
 
 关 键 词  
 自动驾驶 
 ; 
 电车难题 
 ; 
 道德决策 
 
 
 
  随着人工智能的升级发展 
  , 
  通用人工智能伦理研究成为理论关切点 
  。  
  什么样的伦理应当用于通用人工智能领域, 
  什么样的伦理可以用于通用人工智能领域 
  , 
  这是人工智能伦理研究中的两个核心问题, 
  前者对应人工智能伦理的选择根据问题 
  , 
  后者对应人工智能伦理的技术实现问题 
  。  
  自动驾驶电车难题被视为人工智能伦理的试金石, 
  通过检验计算化程序是否能以与人类道德规范和道德常识不相冲突的方式自洽地解决电车难题, 
  考察人工智能伦理的形式化法则是否具有可行性 
  。  
  本文借由自动驾驶电车难题, 
  试图论证康德义务论可以为通用人工智能伦理提供与人类道德规范和道德常识相容且技术上可实现的计算模型。  
 
 
 一、自动驾驶电车难题中的伦理问题
 
  自动驾驶电车难题是电车难题扩展至人工智能领域的升级版 
  。  
  电车难题源自  
  20  
  世纪  
  60  
  年代 
  ,由菲利帕· 
  福特为了反驳功利主义的主张而提出 
  。  
  福特假设了这样一个场景 
  : 
  一辆电车在行驶中 
  ,发现前面轨道上绑着 5  
  个无辜的人 
  , 
  此时电车已经无法及时制动以避免这  
  5  
  个人伤亡 
  , 
  但可以通过轨道拉杆让电车转上另一条轨道, 
  可是另一条轨道上也绑着  
  1  
  个人 
  , 
  同样无法避免伤亡 
  。  
  在此情形下, 
  如果你是轨道拉杆操控者 
  , 
  作出怎样的选择才是符合道德的 
  ?  
  电车难题的天桥版本则让电车难题的伦理冲突更加尖锐: 
  假设天桥上的一位路人看到电车前进方向上绑着  
  5  
  个人 
  , 
  路人旁边有一形高大者,推下天桥恰恰能起到制动作用,阻止电车前进,救下轨道上被绑的 5 个人。 此时,面对 
  难选择的天桥路人又将如何决策?  
  从电车难题的司机版本过渡到自动驾驶电车难题只有一步之遥, 
  用自动驾驶电车的执行程序取代电车司机 
  , 
  我们面对的就是自动驾驶电车难题 
  。  
  自动驾驶电车难题也有一个修改版本。  
  当一辆自动驾驶电车在行驶中发现前面有  
  5  
  个行人 
  , 
  自动驾驶程序通过行驶数据与周围环境数据输入判断, 
  制动来不及 
  , 
  转向则会撞向路边的阻碍物 
  , 
  可能导致车内  
  1  
  名乘客伤亡, 
  此时 
  , 
  在伤害  
  5  
  个行人与保护车内  
  1  
  名乘客之间 
  , 
  自动驾驶电车应作出怎样的道德决策 
  ?  
 
 
  
   自动驾驶电车难题主要考查的问题是 
   , 
   自动驾驶电车配载的执行程序是否能够以符合人类道德规范的方式作出正确的选择。  
   在自动驾驶汽车推广指日可待之时 
   , 
   对这个问题的思考具有紧迫的现实意义。 MTurk  
   网站上著名的道德机器试验就是以自动驾驶电车难题为原型 
   , 
   试验中的被试者要求就 13  
   种两难场景作出选择 
   , 
   包括引入数量 
   、 
   年龄 
   、 
   性别 
   、 
   是否违规 
   、 
   路人与乘客 
   、 
   性格特征等各种比较参数。  
   试验的发起者认为 
   , 
   在自动驾驶电车道德规范问题上 
   , 
   不能由伦理学家单方面进行规定, 
   还需要得到公众的接受与认可 
   。 “ 
   任何人工智能伦理的提议都至少需要有公共道德认知 
   ” 
   ① 
   , 
   这一点不容否认, 
   但通过网络调查的实验方法并不能获知什么是公共道德 
   。  
   道德机器试验只能估算到公众受文化影响的道德心理偏好, 
   而经验中的主观心理偏好并不等同于公共道德 
   , 
   更不能成为公共道德的可靠根据。  
   公众的意见因囿于己见往往很难达成一致 
   , 
   受人类主观欲望影响的经验行为不能达成普遍共识, 
   以经验为根据的偏好 
   , 
   即使是多数人的偏好也不能成为伦理的普遍法则 
   ,这一点在康德对功利主义的批评中得到证明。  
  
 
   
   通过算法化把一种道德规范纳入自动驾驶执行程序 
   , 
   不仅有技术上的算法一致性问题 
   , 
   还有公意认同与商业发展问题。  
   对伦理算法化的网络调查显示 
   , 
   尽管人们更倾向于认为功利主义的伦理算法更道德, 
   但却更倾向于购买置入自保算法的自动驾驶汽车 
   ② 
   。  
   康提萨 
   (Giuseppe Contissa)、 
   拉吉亚诺(Francesca Lagioia) 
   和萨尔托尔 
   (Giovanni Sartor) 
   提出设计自动驾驶的伦理旋钮 
   , 
   在自动驾驶汽车中设计利他、 
   利己 
   、 
   功利主义三个挡位 
   , 
   由个人决定执行何种道德程序 
   ③ 
   , 
   这虽然能在一定程度上调和道德规范与商业发展之间的冲突, 
   但却会带来更多伦理难题 
   。  
   从道德与商业价值的关系而言 
   ,不是商业价值决定道德, 
   而是道德约束商业行为 
   。  
   道德体现公共价值对个人行为的制约 
   。  
   自动驾驶伦理旋钮看似把道德的自主权留存给个人, 
   且不说利他挡位被选择的可能性有多大 
   , 
   其实供选择的不同伦理框架把自动驾驶道德规范碎片化, 
   根本无法体现道德制约个人行为的目标价值 
   , 
   且在现实中带来责任边界模糊的问题。  
   试问 
   , 
   利己挡位下的交通事故是自动驾驶汽车技术上的事故 
   , 
   还是挡位选择上的事故?  
   两者之间并不能明晰责任因果关系 
   。  
  
 
   
   电车难题中 
   , 
   作出道德判断的是具有自由意志的人类 
   ; 
   自动驾驶电车难题中 
   , 
   作出道德判断的是既定程序。  
   人类作出道德判断 
   , 
   可能受道德情感与道德心理的作用 
   , 
   在非道德的动机作用下 
   , 
   人类依然可能作出符合道德目的的行为决定。  
   相比之下 
   , 
   自动驾驶电车执行既定的计算程序 
   , 
   不具有道德情感。  
   韦伯把人类理性区分为工具理性与价值理性 
   , 
   计算机程序可以模拟工具理性的计算运行方式, 
   但无法自动生成计算理性运行的方向目标 
   。  
   人的道德选择可以直接进行道德归责 
   , 
   计算机程序则无法进行直接归责。  
   对于一辆造成事故的自动驾驶电车 
   , 
   我们除了追究自动驾驶电车公的责任,无法对自动驾驶电车本身施加任何有效的追责行为。 对于一辆违背道德常识、出现道德 
   择错误的自动驾驶电车, 
   我们首先会排查是否计算错误 
   , 
   接着会反思是否编程错误 
   。  
   自动驾驶电车通过既定的程序运行, 
   只有他律而没有自律 
   , 
   即遵循外部法则而不能自己为自己制定法则 
   , 
   即使非监督式学习算法, 
   也是机器模拟人类的归类形象思维作出有根据的判断输出 
   。  
  
 
   
    理想的自动驾驶电车应如同人类一般作出智能化的道德决策 
    。  
    当然 
    , 
    我们不能过于乐观地期望, 
    人工智能能够无条件地完美解决人类都无法突破的道德困境 
    。  
    从宽泛的意义上而言 
    , 
    一种行动是道德的, 
    意味着这种行为能增进社会的 
    “ 
    善 
    ” 
    而抵制社会的 
    “ 
    恶 
    ”。  
    康德规定普遍的法权法则 
    , 
    即“如此外在地行动 
    , 
    使你的任性的自由应用能够与任何人根据一个普遍法则的自由共存 
    ” 
    ① 
    , 
    可视为在共同体内定义了一种以普遍自由为根据的善, 
    当进入大家都遵循法权义务的法权状态 
    , 
    个人内在地可自主追求德性完善, 
    外在地可合法谋取生活幸福 
    。 AI  
    科学家斯图尔特 
    · 
    罗素 
    (Stuart Russell) 
    提出在充分开发人工智能之前, 
    先搭建人工智能治理结构 
    , 
    通过构建  
    AI  
    与人类之间的价值同盟 
    , 
    确保这项技术为人类的利益服务。  
    人类为人工智能设定价值航标 
    ,“ 
    如果我们把错误的目标输入比我们更智能的机器里, 
    机器就会实现目标 
    , 
    但我们也就失败了 
    ” 
    ② 
    。  
    人工智能不具有内生价值 
    , 
    人工智能与人类之间的价值同盟只能是一种起源于人类的价值。  
    智能与理性行动有关 
    ,“ 
    是智能的 
    ” 
    意味着智能体能够在一个情景中作出判断并采取可能最好的行为。  
    这一最好当然包含伦理规定的最好 
    ,即有助于促进社会的善。  
    行动具有道德价值 
    , 
    道德价值的判断标准应对所有理性行为有效 
    , 
    其中既包括人类的理性行为, 
    又包括智能化的理性行为 
    , 
    如自动驾驶 
    。  
   
 
   二、康德式人工智能伦理的理论展开及其非完全决定性问题的应对
 
    康德的义务论是延伸至人工智能领域的三种主要伦理范式之一 
    。  
    在功利主义 
    、 
    义务论与美德论之间, 
    究竟何种伦理更适合延伸为人工智能伦理 
    , 
    需要从可计算化 
    、 
    确定性 
    、 
    一致性 
    、 
    可普遍化等多方面考量。  
    从技术上而言 
    , 
    功利主义具有直观的可计算化特征 
    , 
    在问卷调查中 
    , 
    也得到更多人的认同, 
    但何谓功利缺乏普遍与统一的判断标准 
    。  
    在人工智能伦理领域 
    , 
    美德论被认为最有前景 
    , 
    通过学习算法, 
    道德榜样的美德可期完美模拟 
    , 
    但何谓美德并不是一个边界清晰的概念 
    , 
    机器学习依然需要被监督, 
    以便有根据地判断什么样的美德值得学习 
    , 
    如果这种根据只是来自多数人的经验认同, 
    依然缺乏坚实的理性基础 
    。  
    康德义务论建立在道德的普遍性法则之上 
    , 
    以定言命令为根据确保义务的一致性, 
    既为人工智能伦理提供统一的理论支持 
    , 
    也能扩展为人机共享的伦理规范 
    , 
    从而有助于构建通用人工智能的伦理框架。  
   
 
    
    在康德看来 
    , 
    义务起源于实践理性的自我立法 
    。  
    鲍威尔 
    (Thomas M. Powers) 
    在 
    《 
    康德机器的前景》 
    中试图论证机器生成实践理性的可能性 
    , 
    以此确保机器可以形成与人类类同的义务规定 
    。  
    鲍威尔指出, 
    康德的道德形而上学体系为康德机器奠定了三个方面的理论基础 
    : 
    一是由绝对命令保证的普遍性与一致性; 
    二是可用缺省逻辑表达的常识伦理知识 
    ; 
    三是通过机器学习确保伦理知识体系的连续性③ 
    。  
    鲍威尔的构想并没有把康德的人性法则纳入其中 
    , 
    因为系统缺乏目标导引 
    , 
    所以康德机器不得不面对义务的非完全决定性以及初始道德法则的任意性假定。  
    常识伦理知识作为背景知识引入机器数据库, 
    并不会自动生成康德所言的人性法则 
    , 
    只有理性的自我定义与自我反思才会确保人把自身作为目的而不作为手段。  
    机器是否能够模拟人类理性自我反思与自我立法的能力 
    ?  
    对一问题的肯定回答与否定回答涉及两种不同的机器伦理图景,在科幻电影中都有表达,一种如《机 
    械公敌》, 
    一种如 
    《 
    黑客帝国 
    》。 《 
    机械公敌 
    》 
    中的 
    “ 
    维奇 
    ” 
    遵循人类给机器人制定的三大定律 
    , 
    以最大限度地保护人类为目标, 
    最终导致机器人利用人类制定的规则来规训人类 
    , 
    限制人类自由 
    ① 
    。 《 
    黑客帝国》 
    中 
    , 
    机器世界拥有自己的法则与意志 
    , 
    最终导向机器人意志与人类意志在战争与和平之间的不断循环, 
    直至走向人类意志与机器人意志更高层次上的统一 
    。  
    当人工智能具有自我立法的能力 
    ,也就对人工智能伦理提出了更高的要求, 
    如果人工智能偏离人类的法权法则 
    , 
    生成独立的生存意志, 
    则可能造成灾难性的后果 
    。  
    当然 
    , 
    从技术层面而言 
    , 
    这并不是当前迫切需要解决的问题 
    。  
   
 
    
     怀特 
     (Ava Thomas Wright) 
     以康德区分法权论与德性论的理论为基础 
     , 
     论证了人工智能作为法权机器的可行性② 
     。  
     康德区分了法权立法与伦理立法 
     , 
     法权立法只涉及使行动成为义务的客观必然性, 
     伦理立法则同时规定了义务又是行动的动机 
     ③ 
     。  
     对于人工智能伦理而言 
     , 
     呈现行动的客观必然性比呈现行动的主观动机更具有可行性。  
     如怀特所言 
     , 
     法权义务 
     “ 
     是每个人都应当接受的义务 
     ”, 
     而美德义务“ 
     在具体情形中是有争议的 
     ”, 
     人工智能遵循的义务首先应是 
     “ 
     每个人都应当接受的义务 
     ”,同时也是可清晰定义的义务。  
     法权只涉及行动的外在客观强制 
     , 
     德性则需要同时考虑行动的主观动机。  
     主观涉及人的自由意志 
     , 
     人工智能是否具有自由意志 
     , 
     这一点尚有争议 
     , 
     如果人工智能限于再现法权义务的客观必然性, 
     则可绕过这一争议 
     。  
    
 
     
     怀特采用与鲍威尔同样的方式 
     , 
     借助非线性逻辑来陈述 
     “ 
     义务逻辑 
     ”。  
     这种义务逻辑具有非传递性, 
     也就是说 
     , 
     在某些情形下 
     , 
     当人工智能没有执行某一义务规定 
     , 
     并不必然构成对这一义务的否证。  
     由此 
     , 
     相冲突的义务能够在同一义务系统中共存 
     。  
     非传统逻辑虽然能够表述非线性的义务系统, 
     却无法决定如何在相冲突的义务之间进行取舍 
     。  
     如鲍威尔采用的缺省逻辑 
     , 
     符号表述为 
     :(C:A) / A。 其中 
     ,C  
     是默认前置条件 
     ,A  
     既是来源于事实的证据 
     , 
     也是不完全结论 
     。  
     理论 
     (TEXT) 
     用来表述缺省逻辑 T = (W,D) 
     的结果集 
     , 
     其中  
     W  
     是事实集 
     ,D  
     是缺省规则 
     , 
     通过对规则的一致性测试 
     , 
     我们可以使用这个结论④ 
     。  
     但在这过程中 
     , 
     事实集的选择却独立于缺省规则 
     , 
     相反 
     , 
     恰是事实集给予了理论(TEXT) 
     在形式一致性外必要的内容补充 
     。  
     怀特求助于法权责任的合理化 
     , 
     即把法权责任视为给定事实, 
     但只以法权责任作为限定 
     , 
     这给人工智能留下过多自主决断与任意决断的空间 
     , 
     并不足以使人工智能作出符合人类道德规范的判断, 
     如鼓励唯责任是从的道德冷漠 
     , 
     这也是缺省逻辑表述下道德判断的非完全决定性问题。  
    
 
     
     鲍威尔与怀特的义务逻辑系统存在一个问题 
     , 
     即没有决定性的理由来选择冲突的一方或另一方。  
     对这一问题的回答需要重新审视康德义务体系的内容结构 
     。  
     康德把义务视为无条件的绝对命令, 
     我们似乎就不能根据条件对义务作出实然判断 
     。  
     但康德所言义务的无条件性只是相对于理性的主观动机而言, 
     相反 
     , 
     义务的实然则必须满足客观条件 
     , 
     或遵循许可法则 
     , 
     比如帮助他人的义务 
     ,必须拥有帮助他人的能力, 
     心有余而力不足的帮助无法使义务从应然走向实然 
     。  
     义务在客观上不能视为是无条件的,义务的客观条件是使义务之所以成为义务的根据,比如遵纪守法的义务以 
     入法权状态的客观要求为条件, 
     不撒谎的义务以语言的可信性为条件 
     。  
     并且 
     , 
     康德义务体系中的所有义务并不能视为均等的, 
     史密特 
     (Elke Eliabeth Schmidt) 
     就此区分了狭义的义务与广义的义务 
     , 
     并以此来判断电车难题中的义务冲突① 
     。  
     康德否认义务之间存在冲突 
     , 
     但承认履行的责任之间可能出现冲突, 
     义务冲突也就表现为兑现义务的责任根据之间的冲突 
     ② 
     。  
     因此 
     , 
     为了解决义务冲突问题 
     , 
     同时也是为了实现义务从应然走向实然的有序判断, 
     在义务的兑现价值之间实现有序分层是必要的 
     。  
    
 
     
      康德的义务体系在形式上符合道德的普遍性法则 
      , 
      在内容上则可以视为趋向至善的价值规定 
      , 与 
      是目的而不是手段 
      ” 
      这一人性法则一致 
      。  
      从个人 
      、 
      共同体 
      、 
      自然法则 
      、 
      法权等不同角度出发 
      , 
      在经验可能提出不同的义务要求, 
      在这些不同的义务要求之间作出判断选择 
      , 
      即从经验层面应对义务冲突, 
      需要一种判断法则 
      。  
      康德把义务冲突视为兑现义务根据之间的冲突 
      , 
      那么 
      , 
      这种判断法则也就是针对义务兑现根据的优先法则, 
      需要在义务逻辑系统的普遍性与一致性法则之外 
      , 
      纳入康德强调的义务的人性法则, 
      即 
      “ 
      人是目的而不是手段 
      ”。  
      人作为目的性存在包含两层含义 
      : 
      一是人的平等的自由存在状态, 
      二是人作为道德性的存在获得走向至善的可能 
      。  
     
 
      
      罗尔斯在论证个人对公正原则的理性选择时 
      , 
      采用了一种层级优先法则 
      , 
      分析微观层面的优先法则如何最终在实践理性层面反馈为向平等的正义的汇聚③ 
      。  
      我们可以采用这种层级优先法则分析康德的义务体系, 
      根据这种优先法则 
      , 
      义务最终在实践理性层面反馈为以人为目的并向至善的汇聚。 
     
 
     



















