A8:读书 龙水湖总第6期 >2022-06-24编印

终极“算法”
刊发日期:2022-06-24 阅读次数: 作者:丁小村  语音阅读:
  

□丁小村
1

  一个人认为什么是对的,什么是错的;选择应该做什么,不该做什么……这些问题并非脑子里瞬间过电决定,上帝并没有在我们脑子中安装一个按钮,像开关一样随手按下去。
  很多时候,看似随机的选择,里边包含了我们的文化传统、道德判断、伦理选择、价值评判——
  当你看到一个孩子横穿马路即将被车撞上的时候,是冒着风险去救他,还是假装没看到……
  每一个置身事外的人,都可以批评那个假装没看到的人,但是假如把你自己放在这个场景之中,你最终会选择怎样做,其实很难说。
  因此,我们每一个人都可能遇到这样的难题。
  我们只要生活在某个社会,就会遇到价值判断和道德选择——也就是伦理问题。每一个人都经常做这样的选择判断,因此伦理学经常把一些极端问题(类似于一个数学建模或者物理实验)推到我们面前,让我们回到生存现实中思考问题。
  今儿给大家推荐一本有意思的书:《电车难题》。

2

  “电车难题”是伦理学上一个非常著名的题目,最早由一位伦理学家提出来,他大致设想了一个这样的情景:
  你站在天桥上,桥下是一条铁轨,铁轨上边有五个工人正在工作,这时候远处有一列失控的电车开过来,眼看就要撞上这五个工人。如果铁轨上有个扳道工把这个电车引上岔道,这五个工人就安全了,但是现在没有扳道工,已经来不及了。这时候你身边走过一个胖子,如果你把他推下天桥,刚好落到铁轨上,就可以堵住失控的电车,这五个工人就得救了。
  那么:你该把这个胖子推下去,牺牲他一个救五个工人么?
  也许你觉得这个命题很简单:那就把胖子推下去,他一个人牺牲了能救五个人嘛。
  那么跟着问题就来了:假如这个胖子是你好朋友呢,是你亲戚呢,是你爸爸或者哥哥呢……
  还有别的问题:假如胖子是爱因斯坦呢,假如胖子是个将军呢,假如胖子是你公司的老板呢……
  利害判断和情感选择之外还有法律评判:胖子的家属把你告上了法庭——你现在面临的问题是,你是否有权力决定胖子的生死——不管你为了什么。

3

  这个“电车难题”太迷人了,以至于几十年来,网络上和线下都有了专门的电车难题讨论组,全世界的伦理学者和爱好者都加入进来,许多伦理法律和宗教讲堂,会把这个问题拿出来当成辩论话题。以这个“母题”为基础,大家还想象出了很多很多类似的情景,都被称为“电车难题”。
  比如这里有一个:
  医院里急救中心送来五个受伤的人,如果他们立即得到换器官的机会,他们都能活下来。现在医院里边就有一个各种器官都好的人,但是他得了绝症,在将来不久会死去。作为主治医生,你是否可以现在就决定,用他的器官来拯救那五个人?
  医生能够决定那个得了绝症的人什么时候该死吗?——即便他的确快要死了,即便这样做可以救活五个人。

4

  全世界的爱好者都参与进来讨论这些“电车难题”,看起来好像很简单的选择,实际上包含了种种疑问,到最后,你发现这的确是难题——因为我们面对人类种种伦理认知、道德判断,功利选择和良知拷问。
  《电车难题》这本书,介绍了“电车难题”的来源与几十年探讨的方方面面,它设想电车难题已经得到选择,但是面临着各种法庭辩论,于是让检察官、律师、法官、被告和原告、学者、牧师、学生、普通百姓……社会方方面面的人都参与进来,从他们自己的角度对此进行评判。
  最后,“难题”终究还是难题,因为只要我们还需要伦理选择,这难题始终存在,与其说它是个难题,不如说它是我们人类伦理的各种选择和进化、拷问和提升。

5

  据说谷歌造出了智能驾驶汽车,然后上路做实验,做了很多实验,智能驾驶汽车从未出过事故。但有一次例外:
  在某个十字街口,发生了撞车事件。事故的责任人不是驾驶智能汽车的机器人,而是这辆智能汽车后边的一个人类司机——他摇头晃脑听音乐走神了,和这辆智能驾驶汽车追尾了。
  这很有意思:人类总是比机器更容易犯错。
  但是人类有些“对与错”的问题,机器是永远都想不到的,比如说——
  现在有一辆智能驾驶汽车,它在事故发生的瞬间需要选择:要么撞上一个男人,要么撞上一对牵着手的母子。机器的“算法”是判断和选择,人类司机也得判断和选择——通常人类司机不需要“算法”,他可能头脑充血,神经高速运转,不知道自己会撞上那个男人还是那对母子;但机器却很清晰,它会在一瞬间用“保险赔付多与少”、“牺牲一个人还是两个人”、“牺牲年老的还是年轻的”等等无数种“算法”之后,决定这次事故中各人的生死。
  “算法”何等冷酷啊!
  而人类的伦理却是带有温度的:人类也许会犯无数次错,但人类却很难做到像机器这样的冷酷“算法”。
  这就好比“电车难题”:你真的觉得你把胖子推下天桥,会很理直气壮么?