隐私、事故和权责,智能汽车发展带来的伦理问题( 二 )


但是在智能汽车领域 , 这个问题变得稍微复杂了点 , 即大多数时候都是人在拿着刀 , 可一旦开启了智能驾驶 , 刀也有可能有自己的“意识” , 决定自己去砍人 。 在这种情况下主观意愿的发出者并不是驾驶者 , 而是车辆本身 。 虽然目前已经出台的一些法律 , 还是倾向于将责任归于驾驶者 , 而驾驶者也可以酌情向制造商追责 , 但这个问题一定还会在相当长的一段时间内 , 伴随着智能驾驶级别不断的发展提高而被反复提及 。

如果深入这一点 , 就会发现 , 即便是不发生事故 , 也会产生另外一个问题 , 我们姑且把它称为“道路权”的问题 。 试想一下 , 在一个开放的路段 , 仅从车外的角度是难以分辨哪一辆车是正在进行智能驾驶 , 哪一辆车是由人来驾驶的 。 (虽然智能驾驶汽车可以设置一些警示的标志 , 但这不足以在根本上进行分辨)
这时 , 在同时行驶的车辆当中 , 由人驾驶车辆的“道路权”是否会因为“智能驾驶”的参与而受到侵犯 。 这么说似乎有些矫情 , 但通过对权责以及理性驾驶能力的分析 , 就会察觉到不对劲的地方 。
对于人工驾驶来说 , 驾驶者拥有道路权 , 同时他也要为自己的驾驶行为负责 , 这毋庸置疑 , 权责非常清晰 。 但是对于智能驾驶来说 , 驾驶者开启智能驾驶功能后 , 就会出现一个奇怪的情况 , 智能汽车而非驾驶者拥有道路权 , 即相关的驾驶行为是智能汽车发出的 , 而目前来看 , 智能汽车本身(因为它不是个法人)不需要为其驾驶行为负责 , 驾驶员必须要为最终的行为负责 。

表面上看起来似乎问题不大 , 终归都是驾驶员在负责 , 但这仅仅是在发生事故的情况下 , 责任可以落实到人 。 如果将视线定格在路上行驶的某一个片段 , 人工驾驶的驾驶员就会发现 , 跟他在道路上竞争的 , 竟然有很多是并不需要为自己的驾驶行为负责的“人工智能” 。
这就好比我们在路上发现一个没有民事能力的孩子 , 在有家长相伴的情况下开车一样 , 作为跟他们同路的人 , 难免会产生担忧 , 不管是这个孩子的驾驶水平如何 。 这并不是一个关于技术的问题 , 也不是一个关于法律的问题 , 而是一个关于权责分配的伦理问题 。
这个背后 , 也就隐藏着所有人工智能发展最终都会遇到的问题——人工智能产品 , 在多大程度上 , 可以被当作一个法人来看待 。

这个问题的本质是不同于其他的商品 , 人工智能产品具有独立做决策的能力 , 并在此基础上发出跟人类似的动作 , 这些动作可能伤及到其他人 。 那么这个人工智能是否有能力承担这个责任 。
但是更进一步的是 , 如果“人工智能”不具有反思意识 , 即不具备反思责任的能力 , 那么它就会是处于没有道德或伦理压力的控制下 , 即便是有足够聪明的程序来指导它 , 也无法让他称为一个像人一样的能因为责任问题而改变行为的一个主体 。
这不免让人联想起阿西莫夫的机器人三定律:
第一定律:机器人不得伤害人类个体 , 或者目睹人类个体将遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令 , 当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存;

即便是有着绝对的命令 , 机器也无法作为一个法人主体 , 因为控制他们的是指令而不是他们自己对道德的反思 , 即对责任的认识 。 也许现在说这个问题还很遥远 , 但如今一辆智能汽车在路上“自动”行驶的时候 , 就一定会给其他人工驾驶的车辆 , 带来一种权责的扭曲影响 , 在这种影响之下 , 人工驾驶的驾驶员都会发出一个自然而然的追问 , 如果这台机器不能像我一样负责 , 那就请他不要做决定 , 这是对我为自己行为负责这个规则的严重侵犯 。
【隐私、事故和权责,智能汽车发展带来的伦理问题】如果在一个充分自由的法制社会里 , 可能只要有一个人坚持人工驾驶 , 他就有权利去起诉所有的自动驾驶 , 要他们证明智能汽车可以为其行为负责 , 否则就可以禁止它们上路 。 但这只是一种理想情况的假设 , 现实社会也许人们都会慢慢的拥抱新技术、新产品 , 不过这也提醒我们 , 新技术新产品不仅带来了便利 , 也会带来相当复杂、甚至从来没有过的伦理问题 , 也只有解决了这些 , 新的东西才会真的落地 , 称为日常生活的一部分 。

推荐阅读