23

有伦理的机器能给我们带来什么

斯托尔斯,康涅狄格州—长期以来,人工智能(AI)的前景一直是伦理难题的来源。但人们的关注焦点一直在我们创造者可以和应该如何使用先进的机器人。而为机器本身制订一套伦理的需要一直没有得到讨论,同样被遗漏的还有在出现伦理两难时机器如何解决的问题。只有这两点得到了充分考虑,智能机器才能自主运行,在完成任务的同时做出伦理选择而不需要人类干预。

有很多活动我们都乐于完全转交给自动运行的机器。机器人可以从事非常危险或令人非常不快的工作。它们可以填补劳动力市场空缺。它们也可以完成冗长乏味或细节导向性任务——比起人类,这些任务更适合机器人。

但没人能完全放心让机器在没有伦理框架指导的情况下独立行动。(多年来,好莱坞在强调这些风险方面做出了非常漂亮的工作。)正因如此,我们需要训练机器人识别和权衡给定状况的伦理相关的方面(比如表明潜在收益或对人的伤害的方面)。我们需要向它们灌输合理行动(从而实现收益最大化和伤害最小化)的责任。

当然,在现实生活中,可能会出现多重伦理相关方面和相应的责任——并且彼此之间可能互相冲突。因此,对机器人而言,每项责任都必须放在周边环境中比较和考虑:重要,但不绝对。表面上至关重要的责任可能——特别是在特定的环境中——被另一项责任所否定。

做出这些判断的关键是在机器开始工作前就向它们灌输的至高无上的伦理原则。有了这一批判性视角,机器可以正确地处理意料之外的情况,甚至能够论证它们的决定。

机器需要什么原则在某程度上取决于它被如何部署。比如,搜救机器人的责任是拯救尽可能多的生命,在完成这一责任时,它们需要明白如何根据有多少受害者可能位于某个区域或有多少存货可能等问题排定优先顺序。这些考虑不适用于看护老人机器人。看护老人机器人必须设定必须尊重主人的自主权。

只有在伦理学家就什么是可接受的行为形成了一致的领域,我们才能允许机器自主运行。否则,允许任何机器自主运行都有可能让我们反受其害。

但伦理学家不应该是“独行侠”。相反,制定及其伦理需要基于伦理学家和AI专家对话的多学科交叉研究。要想获得成功,双方都必须尊重对方的专业性——以及需求。

AI研究者必须认识到伦理是哲学的一个研究历史悠久的分支;伦理学之所涉远远超乎外部人士的直觉。伦理行为不但包括克制不去做某些事情,也包括某些事情从而让事物进入理想状态。但是,到目前为止,关于机器行为的伦理顾虑的确定和缓解主要强调“克制”部分,即防止机器做出伦理上不可接受的行为,这常常造成不必要地约束它们的可能行为和部署领域。

至于伦理学家,他们必须承认为一个机器编程需要最大限度的精确性,而这又需要让他们的伦理讨论观点更加犀利,甚至达到罕见的程度。他们还必须更多地参与他们的理论工作的真实世界应用,这能够给推进伦理学领域带来额外的好处。

更广泛地说,尝试为机器制定一套伦理能够给我们一个全新的开始,制定用于解决伦理难题的原则。由于我们关注的是机器行为,可以比讨论人类行为的情况更加客观地考察伦理,即使我们所讨论的对象应该也适用于人类。

一方面,我们不会倾向于向机器嵌入一些人类演化而来的行为,如支持本人和某个集体。相反,我们会要求它们尊重全体人类。因此,有可能机器行为会比大部分人类更符合伦理,并成为我们所有人的积极角色榜样。

有伦理的机器不会造成人道威胁。相反,它们将在很大程度上帮助我们,不但为我们工作,还向我们展示,要作为一个物种生存下去,我们人类应该如何行为。