3、为他们制定行为准则
成功的可能性:中等。科幻小说家艾萨克-阿西莫夫的著名规则就是分等级排序的:最重要的是,机器不应该伤害人类或对它们的伤害无动于衷;其次,就是机器人应该服从于人类;而机器人的自我保护则属于最低等次的优先级。
然而,阿西莫夫只是小说家,并不会真去研制机器人。在他的小说故事里,他列举了可能会仅仅因为这些简单的规则而产生的一系列问题,比如,当同时收到由两个人发出的相互冲突的两道命令时,机器人该如何执行?
阿西莫夫的规则使得机器人难以判断。例如,机器人如何理解一名正在对患者进行切割手术的外科医生其实是在帮助患者呢?实际上,阿西莫夫的机器人故事已经非常清楚地说明了基于规则的道德限制。然而,规则可以成功地对机器人的行为进行限制,但同时也将其功能局限于一个有限的空间内。
4、为机器人编制特定程序
研制机器人的目的应该是“为最广泛的人群创造最大的利益”,或是“对待他人就像你希望被对方对待的程度一样”。因此,机器人的研制应该从更为安全的角度考虑,而不是放弃一些简单化的规则。
成功的可能性:中等。由于这些规则的局限性,一些伦理学家在试图寻找一条可以压倒一切的原则,用于评估机器人的所有行为。
但是,对于一些刚刚提出的简单原则,其道德价值和局限性就会成为人们长期争论的话题。例如,牺牲一个人生命来挽救五个人的生命,这看起来好象是合乎逻辑的。但是医生却不会因为这个逻辑,而去牺牲一个健康人仅仅是为了为五个病人提供他们所需要的器官。那名机器人又如何看待这条逻辑呢?有时,在给定的规则下确定最佳选择是极其困难的。例如,判断到底哪一种行为可能会产生最大的利益,这可能需要大量的知识以及对世界上各种行为的影响的理解。当然,做出这种思考也需要大量的时间和计算能力。
5、像教育孩子一样教育它们
在“成长”过程中,机器人也应该不断学习人类对各种行为的是非判断,以提高它们对各种行为的敏感性。
成功的可能性:有希望。虽然这一战略的实施还需要一些技术方面的重大突破,但科学家们已经研制出能够像人类一样学习的机器人。当然,目前的工具还非常有限。
6、让机器人拥有感情
像人类的一些功能,如同情、感情以及对非语言社会暗示的理解能力,都可以让机器人拥有更强的与人类互动能力。科学家们已开始着手为家用机器人添加这些类人类功能。
成功的可能性:研发感情丰富的机器人必将有助于实现上面三条刚刚讨论过的问题的解决方案。人类在做出决策时以及在与他人合作的过程中对对方观点、手势或意图的理解能力,依赖的主要信息来源于我们的情感。(刘妍)(新浪科技)
|