品书网

小故事

保存到桌面 | 繁体 | 手机版
传记回忆文学理论侦探推理惊悚悬疑诗歌戏曲杂文随笔小故事书评杂志
品书网 > 小故事 > 机器人也要讲道德

机器人也要讲道德

时间:2024-08-14 03:53:43


   

 根据科幻作家阿西莫夫的同名小说改编的电影《我,机器人》里有这样一个场景:2035年的一个早晨,机器人与人类一起穿梭在美国芝加哥繁忙的街道上,它们在送快递,帮主人遛狗,做搬运工,急着回家给主人拿急救药品――这并非遥不可及,日前,谷歌公司的机器人汽车项目就有可能让这一虚构成为现实。


   

  今年5月,美国内华达州为一辆搭载谷歌智能驾驶系统的汽车颁发了牌照,允许这辆无须人工驾驶的汽车在公共道路上测试行驶。据行业人士预计,自动驾驶汽车在欧美有望于3年至5年后投入使用。


   

  根据国际机器人联合会网站公布的数据,自1961年以来,全球机器人的销售总量已达230万,2011年销量最高,达到16万台。眼下,全球机器人产业已处在一个蓬勃发展的上升期。


   

  阿西莫夫定律的困境


   

  当机器人越来越多地渗透到人们的生活中,由此引发的法律与道德问题也随之而来。


   

  英国谢菲尔德大学人工智能与机器人学教授诺尔??沙吉举例说,设想你的机器人汽车正在开往停车场,此时一个儿童正在附近玩耍。一辆卡车开来,溅起的尘土干扰了机器人汽车的传感器,机器人汽车因不能感知儿童的存在而造成交通事故。那么谁应该对此负责,是机器生产厂家、软件工程师还是机器人自身?


   

  随着机器人越来越聪明,用途越来越广泛,机器人最终将面临这样一种情境:在不可预知的条件下做出道德判断――在有平民存在的情况下,无人飞机是否应该对目标所在房间开火?参与地震救援的机器人是否应该告诉人们灾难真相,即使那样会引发恐慌?机器人汽车是否应该为了避免撞到行人而突然转向,即使那样会撞到其他人?


   

  1942年,阿西莫夫提出了机器人三定律:机器人不得伤害人类,或者目睹人类将遭受危险而袖手不管;机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。


   

  看似完美的三定律在电影《我,机器人》中遇到了麻烦;在儿童和成人同时出现交通事故时,机器人会计算出成人存活率高,选择优先救成年人,而不是儿童。在这种情况下,如何教会机器人进行道德判断就被提上了日程。


   

  像人一样学习道德


   

  怎么教机器人学会道德判断?《道德机器:教会机器人如何判断对和错》一书的作者之一、美国印第安纳大学科学史和科学哲学系教授科林??艾伦表示,这要从人类修习德行的方法中去寻找。


   

  他举例说,2010年4月的美国纽约街头,一名见义勇为的男子在与歹徒搏斗后奄奄一息,但在近两个小时里,先后有20多名行人路过却无人伸出援手。该男子终因失血过多而死亡。人们对道德的理解有时候并不和实际行动相符。为什么会这样呢?


   

  对此,艾伦解释说,在现实中,人们往往“本能地”做出反应,并没有考虑行为所产生的道德问题。古希腊哲学家亚里士多德就认为,人需要在现实中不断地践行有道德的行为,最终使其成为一种习惯。在以后再遇到道德选择时,才能不经思考就能表现出良好的品行。


   

  因此,艾伦认为,可以设计一些具有简单规则的机器人汽车。当汽车遇到上述情况的时候,学习着去进行救助,然后再根据一些道德规范,对机器人汽车的“救助”行为进行分析和肯定,从而逐渐培养起它们的道德感。


   

  然而,另一个更为复杂的问题接踵而来。当人类本身尚对诸如网络下载、堕胎以及安乐死等问题的看法存在分歧的时候,工程师们也不知道应该将哪一套道德体系输入机器人。同时,将一种价值判断应用于具体案例时,也会有分歧。比如,在不伤害到别人的情况下,实话被认为是美德。如果说谎能促进友谊,且不伤害到双方,这时说谎就是“对的”。基于人类道德的差异性,机器人的道德可能会有若干版本。


   

  当机器人像人一样开始学习并实践道德,它们是否会超越和取代人类?艾伦说,他现在还不担心这一点,眼下需要做的事是如何教会机器人做出正确的道德判断。至于怎样的道德判断是正确的,这个问题,恐怕连人类有时候都还没有弄清楚。


   
   
   

热门书籍

热门文章