机器人也要讲道德
2217
根据科幻作家阿西莫夫的同名小说改编的电影《我,机器人》里有这样一个场景:2035年的一个早晨,机器人与人类一起穿梭在美国芝加哥繁忙的街道上,它们在送快递,帮主人遛狗,做搬运工,急着回家给主人拿急救药品——这并非遥不可及,日前,谷歌公司的机器人汽车项目就有可能让这一虚构成为现实。
今年5月,美国内华达州为一辆搭载谷歌智能驾驶系统的汽车颁发了牌照,允许这辆无须人工驾驶的汽车在公共道路上测试行驶。据行业人士预计,自动驾驶汽车在欧美有望于3年至5年后投入使用。
根据国际机器人联合会网站公布的数据,自1961年以来,全球机器人的销售总量已达230万,2011年销量最高,达到16万台。眼下,全球机器人产业已处在一个蓬勃发展的上升期。
阿西莫夫定律的困境
当机器人越来越多地渗透到人们的生活中,由此引发的法律与道德问题也随之而来。
英国谢菲尔德大学人工智能与机器人学教授诺尔·沙吉举例说,设想你的机器人汽车正在开往停车场,此时一个儿童正在附近玩耍。一辆卡车开来,溅起的尘土干扰了机器人汽车的传感器,机器人汽车因不能感知儿童的存在而造成交通事故。那么谁应该对此负责,是机器生产厂家、软件工程师还是机器人自身?
随着机器人越来越聪明,用途越来越广泛,机器人最终将面临这样一种情境:在不可预知的条件下做出道德判断——在有平民存在的情况下,无人飞机是否应该对目标所在房间开火?参与地震救援的机器人是否应该告诉人们灾难真相,即使那样会引发恐慌?机器人汽车是否应该为了避免撞到行人而突然转向,即使那样会撞到其他人?
1942年,阿西莫夫提出了机器人三定律:机器人不得伤害人类,或者目睹人类将遭受危险而袖手不管;机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
看似完美的三定律在电影《我,机器人》中遇到了麻烦;在儿童和成人同时出现交通事故时,机器人会计算出成人存活率高,选择优先救成年人,而不是儿童。在这种情况下,如何教会机器人进行道德判断就被提上了日程。
像人一样学习道德
怎么教机器人学会道德判断?《道德机器:教会机器人如何判断对和错》一书的作者之一、美国印第安纳大学科学史和科学哲学系教授科林·艾伦表示,这要从人类修习德行的方法中去寻找。
他举例说,2010年4月的美国纽约街头,一名见义勇为的男子在与歹徒搏斗后奄奄一息,但在近两个小时里,先后有20多名行人路过却无人伸出援手。该男子终因失血过多而死亡。人们对道德的理解有时候并不和实际行动相符。为什么会这样呢?
对此,艾伦解释说,在现实中,人们往往“本能地”做出反应,并没有考虑行为所产生的道德问题。古希腊哲学家亚里士多德就认为,人需要在现实中不断地践行有道德的行为,最终使其成为一种习惯。在以后再遇到道德选择时,才能不经思考就能表现出良好的品行。
因此,艾伦认为,可以设计一些具有简单规则的机器人汽车。当汽车遇到上述情况的时候,学习着去进行救助,然后再根据一些道德规范,对机器人汽车的“救助”行为进行分析和肯定,从而逐渐培养起它们的道德感。
然而,另一个更为复杂的问题接踵而来。当人类本身尚对诸如网络下载、堕胎以及安乐死等问题的看法存在分歧的时候,工程师们也不知道应该将哪一套道德体系输入机器人。同时,将一种价值判断应用于具体案例时,也会有分歧。比如,在不伤害到别人的情况下,实话被认为是美德。如果说谎能促进友谊,且不伤害到双方,这时说谎就是“对的”。基于人类道德的差异性,机器人的道德可能会有若干版本。
当机器人像人一样开始学习并实践道德,它们是否会超越和取代人类?艾伦说,他现在还不担心这一点,眼下需要做的事是如何教会机器人做出正确的道德判断。至于怎样的道德判断是正确的,这个问题,恐怕连人类有时候都还没有弄清楚。