如果说机器人控制人类还是一种幻想的话,人对机器产生复杂的情感纠葛已经初露端倪
文 | 本刊记者 王勇
Pleo并非机器人家庭化的第一个产品,但却是第一个廉价的、有自我学习能力的娱乐型智能机器人,引发了台湾电子业界的强烈震撼。同样,日本、美国、欧洲都投入重金进行家用机器人的研制,韩国甚至定下了2020年全部家庭用上家用机器人的目标。
截至2008年5月,除了品牌厂商外,台湾已有包含IC设计、电池、传感器、马达、软件系统等在内的150多家零组件厂商加入了正在招募的机器人研发联盟,电子产业上中下游都摩拳擦掌,准备大干一场。积极推动机器人产业发展的台湾“工业局”预估,2008年台湾机器人产值将达到800亿-900亿新台币,2015年可达到2500亿新台币。(参见附表)
机器人产业正在蓬勃发展,但隐忧也随之而来。日本工程师浦田健司是有史以来第一个命丧于机器人之手的人类,1981年,37岁的他在对机器人执行常规维护时,没有正确关闭机器,机器人无法探测到他,因此液压手臂继续工作,意外地将他推入碾碎机。此后虽然引入了更多安全机制,但机器人依然使更多人受到伤害。人们被机器碾碎,被重击头部,被电焊误伤甚至被机器人用滚热的铝液淋到身上。根据英国健康与安全部的统计,2006年仅英国就有77起与机器人相关的事故发生。
随着机器人逐渐走进千家万户,这样的悲剧也许不仅仅发生在工厂。而且,像Pleo这样有情绪和进化能力的机器人的出现,也让人担忧电影《终结者》中机器奴役人类的一天会否到来。不少人认为,Pleo的“益智机器人三法则”,已经在挑战机械伦理学中最基本的法则——阿西莫夫的“机器人三定律”。
“至少到目前为止,我们的三法则还是严格遵守阿西莫夫的‘机器人三定律’,符合机械伦理学。”叶舟这样回应。“但人工智能在不断发展,如果机器人能解决好逻辑方面的问题,串联的话,会发生什么就很难讲了。”
“仅从科技发展来看,到这一天并不是不可能。”方国健告诉记者,“在我看来,LIFE OS就是一个不断建立刺激与反应的平台,累积到一定程度就会发生质变。拿人来说,婴儿时打一下,都只是哭,十岁以后再打,就各有各的反应,有愤怒的、有哭泣的、有还手的。这其实就是后天环境不同,所学到的经验累积和反应也不同。说没有两台同样的Pleo,就是因为它们有学习能力,后天环境又不同。达尔文进化论有个著名论断——生命会找出对自己繁衍最有利的方向。如果机器人拥有了判断能力和决策机制,当然会为自己的生存斗争,那就有可能威胁到人类的生存。”
“我总觉得让家电之类功能性的机器拥有情绪,这种想法过于天马行空了点。LIFE OS确实能够跨平台移植,但如果脱离娱乐型的机器人,移植到功能性的机器人身上,想想还是蛮恐怖的。我理解的智能家电是规规矩矩的,但能根据你设立的程序进行自动盘点,比如你的冰箱能够通过网络自动订牛奶,而不是有自己的情绪,让你拿它没办法。”方国健如是说。
而在张兵看来,阿西莫夫三定律本身就存在漏洞。“很多科幻大片并不仅仅是科幻,而是一个方向,是有可能发生的事情。”
如果说机器人控制人类还是一种幻想的话,人对机器产生复杂的情感纠葛已经初露端倪。方国健说:“在美国卖Pleo的时候,我们碰见过这种现象。用户的Pleo摔坏了,说给他换个新的死活不干,宁可多掏钱来修这只旧的,因为这是他养过的,换了就没有养过的感觉了。”Pleo用户刘燕平也向记者证实了这种感觉。“养它时间越长,你就越不会觉得它只是个电子产品,感觉它真的有生命,你确实会对他产生感情。”
这种情况在iRobot公司的吸尘器机器人Roomba身上已经有明显的体现。美国乔治亚理工学院资讯学院副教授贝奇·格林特在看到一些消费者如何为他们的Roomba“打扮”的图片后开启了这项研究,并抽样调查了30个Roomba的忠实用户。结果显示,有21个人为自己的机器人取了绰号,有16个人称呼自己的机器人Roomba为“他”,而不是“它”,并“专横”地为他们的机器人强加了性别。有些使用者不遗余力地让自己的家“Roomba化”,以便机器人能在楼层中来回徜徉。有些人特意去购买新的地毯,更有甚者把现有的冰箱更换成拥有较高底座的新货,以便Roomba清理底座下的地面。尤其令他印象深刻的是,有些Roomba损坏已经很严重,甚至存在功能上的问题,但是人们却仍愿意乐此不疲地为自己的机器人做出改变。
“这并不奇怪。机器人外形越像动物、越像人,人就越容易对他产生感情。”方国健提起了斯皮尔伯格2002年拍摄的电影《人工智能》。“那里面的父母遭遇丧子之痛,需要慰藉,就带回家一个跟自己孩子一模一样的人形机器人。处理器发展到某种程度,可以复制大脑,如果有足够的经验灌进去,这种情况是绝对可以期待的。到那天,就必须有一个道德或伦理上的大判断,会出现你是否有权中止他、制造他的争论,那是一个很大的题目,不是我们现在能想象到的。”
而《人工智能》中,那只“过时的玩具”泰迪熊,看起来不就是一个Pleo的进化版吗?
[链接]
阿西莫夫的
“机器人三定律”
“机器人三定律”出自科幻大师阿西莫夫的名著《我,机器人》,其内容是:
第一定律:机器人不得伤人,或任人受伤而袖手旁观。
第二定律:除非违背第一定律,机器人必须服从人的命令。
第三定律:除非违背第一及第二定律,机器人必须保护自己。
“三定律”形式简洁,有着数学公式般的美感,逻辑上环环相扣,“从属”关系鲜明。在现实中,它已经成为机械伦理学的基础,而且目前的所有机械制造业都遵循这三条法则。后来,阿西莫夫又设立了第四条机器人定律,即“零规则”:机器人不得伤害人类,或坐视人类受到伤害而袖手旁观。
乍看起来这跟第一定律没有分别,但这正是“零规则”的微妙之处——它把第一定律中“个体的人”换成了广义的集合概念:“人类”。也就是说,在面临两个潜在值的情况下,机器人可以选择牺牲个体、成全人类。