主页 > X诗生活 >机器人也懂伦理(1-2)

机器人也懂伦理(1-2)

2020年07月17日 01:31:58 | 分类: X诗生活 | 作者:  | 浏览次数:550 次

機器人也懂倫理(1/2)

不久之后,拥有自主能力的机器人就会在我们的生活中扮演重要角色,但是在此之前,它们要先学会遵守规範才行。


重点提要

可自主做出决定的机器人,例如用于协助老人生活的机器人,即使在看似平常的状况下,也可能面临伦理困境。确保机器人能以合乎伦理的行为与人类互动的方法之一,是将一般伦理原则输入机器人,并让机器人在各种状况下运用这些原则做出决定。人工智慧技术可借助逻辑,由各种伦理上可接受的行为案例中,自行归纳、产生原则。本文作者依据此方法,把程式写到机器人里,做出第一个依据伦理原则行动的机器人。

机器人聪明到足以挑战人类,是惊悚科幻小说里常见的恐怖情节,而且机器人绝对不会因为伤害甚至毁灭人类而感到丝毫内疚。当然,目前机器人的用途大多是帮助人类,但即使在相当平常的状况下,机器人也会面临许多伦理上的挑战,而人工智慧也不断在突破这些困境。

想像一下,机器人可能很快就会出现在安养机构,而你就住在安养机构里。接近上午11点时,你要娱乐室里的机器人帮你拿遥控器,好让你打开电视收看「超级星光大道」。但另一位住客也想拿遥控器,因为她想看「全民估价王」,最后机器人决定把遥控器拿给她。刚开始你有点不高兴,但机器人解释这个决定很公平,因为你今天已经看过你最喜欢的晨间节目。这个故事是很平常的伦理决策行为範例,但对于机器人而言,却是十分难以达成的重大成就。

前面描述的状况只是理论上的模拟,但我们已经製作出第一款能做出类似决定的示範机器人。我们赋予这具机器人伦理原则,让它能依照这个原则决定该隔多久提醒病患吃药。机器人的程式目前只能从少数几种可能的选项中选取其中之一,例如是否要一直提醒病患吃药与何时该提醒,或是什幺状况下该接受病患不吃药的决定,不过就我们所知,这是第一款依据伦理原则决定行动的机器人。

但要预测机器人可能面临的所有抉择,并将之写入程式,让机器人在各种想像得到的状况下都能妥善处理,却相当困难,可以说是不可能。但另一方面,如果完全不让机器人採取需要做出伦理抉择的行动,又可能限制机器人执行得以大幅改善人类生活的任务。我们认为,解决方法是让机器人能将伦理原则运用在预料之外的新状况下,好比说除了判断该让谁拿遥控器之外,还可以决定该让谁看新书等。这种方式还有一个优点,就是当机器人被要求解释自己的行为时,可以参考这些原则。如果要让人类自在地与机器人互动,这点十分重要。另外一个附加优点则是,伦理机器人的开发工作,也可促使哲学家探究日常生活状况,带动伦理学这个领域本身的进步。就像美国塔弗兹大学哲学家邓奈特(Daniel C. Dennett)最近说过的:「人工智慧使哲学更诚实。」

我,机器人

不久之后,具有自主能力的机器人可能就会成为日常生活的一部份。现在已经有飞机能够自己飞行,能自动驾驶的汽车也已进入开发阶段,连从灯光到空调等一切运作都由电脑控制的「智慧型住宅」,也可想成是身体就是房屋的机器人,库柏力克的电影「2001:太空漫游」中的HAL 9000,其实就是一部自动化太空船的大脑。目前已有数家公司正在开发能协助银髮族打理日常生活的机器人,除了可以协助安养机构人员工作,也可帮助长者在家中独立生活。儘管这类机器人大多不必做出攸关生死的决定,但要让一般人接受它们,必须先让大众认为它们的行为公平正确,或者至少是良善的。因此,机器人的研发人员最好能将程式会带来的伦理歧见列入考量。

如果你也认为将伦理原则置入具有自主能力的机器人,是机器人与人类顺利互动的关键,那幺第一个问题就是应该置入哪些原则?科幻小说迷可能会认为,艾西莫夫(Isaac Asimov)多年前已经提出了答案,那就是着名的「机器人学三大法则」:

1. 机器人不得伤害人类,或者坐视人类受到伤害而袖手旁观。
2. 除非违背第一法则,机器人必须服从人类的命令。
3. 在不违背第一及第二法则的情况下,机器人必须保护自己。

艾西莫夫于1942年在一篇短篇小说中首次提出这三项法则,但已经有些人在探讨该篇小说时,发现了其中的矛盾。艾西莫夫自己也在1976年的短篇小说《变人》(The Bicentennial Man)中描述这些法则有多幺不合宜。在这篇小说中,坏人要机器人拆解自己。在第二法则下,机器人必须遵守坏人的命令;又不可能在不伤害人类的状况下自卫,因为这样就违反了第一法则。

机器人也懂伦理(1/2)

(依原图重製)

如果艾西莫夫的法则行不通,又有什幺其他方案?真有其他方案存在吗?有人认为,让机器人做出合于伦理的行为是痴人说梦,他们表示,伦理不可能透过计算得出,因此也不可能写入机器人的程式中。不过早在19世纪,英国哲学家边沁(Jeremy Bentham)和弥尔(John Stuart Mill)就主张伦理决策是一种「道德计算」。他们反对以主观意识为基础的伦理,提出享乐的行为效益主义(Hedonistic Act Utilitarianism),主张将所有相关人等感受到的愉悦单位数加总并减去不愉悦单位总数,可望达成最大「净愉悦」的行为,就是正确的行为。伦理学家大多怀疑此理论是否真能涵括伦理考量的所有面向,举例来说,这个理论很难考量到公义程度,而且可能导致牺牲个人来成全大多数人利益的状况。但这项理论至少证明了,可信的伦理理论原则上可以计算出来。

有些人怀疑机器人是否真能做出伦理决策,因为机器人缺乏感情,无法体会人类受机器人行为影响时的感受。但人类又很容易受感情左右,经常因此做出不合伦理的举动。人类的这项特质,加上我们容易偏袒自己和亲近的人,使人类在伦理决策方面的表现并不理想。我们认为,受过适当训练的机器人或许可做到绝对公正,而且虽然本身没有感情,但能察觉人类的感情,并将之列入计算。(待续)

相关文章

188申博直属现金网|有价值的生活资讯|专门提供本地生活|网站地图 天龙国际账号注册 ag平台地址网站咨询75505