2018年12月18日,欧盟人工智能高级别专家组发布了一份人工智能道德准则草案。在许多人担忧人工智能取代人类、破坏伦理的大背景下,该草案旨在指导人们制造一种“可信赖的人工智能”。如何才能让机器人更令人信赖?可否赋予它们道德修养呢?就此话题,作者采访了美国匹兹堡大学科学哲学和科学史系杰出教授、西安交通大学长江讲座教授科林·艾伦。
问:什么是人工智能的“道德”?
艾伦:人工智能的“道德”,或者说“道德机器”“机器道德”,有很多不同的含义。我将这些含义归为3种。第一种含义中,机器应具有与人类完全相同的道德能力。第二种含义中,机器不用完全具备人类的能力,但它们对道德相关的事实应该具有敏感性,并且能依据事实进行自主决策。第三种含义则是说,机器设计者会在最低层面上考虑机器的道德,但是并没有赋予机器人关注道德事实并做出决策的能力。
就目前而言,第一种含义所设想的机器仍是一个科学幻想。所以,我在《道德机器》一书中略过了对它的探讨,而更有兴趣探讨那些介乎第二、第三种意义之间的机器。当下,我们希望设计者在设计机器人时能够考虑道德因素。这是因为,在没有人类直接监督的情况下,机器人可能将在公共领域承担越来越多的工作。这是我们第一次创造可以无监督地运行的机器,这也是人工智能伦理问题与以往一些科技伦理问题之间最本质的区别。在这样的“无监督”情境中,我们希望机器能够做出更道德的决策,希望对机器的设计不仅仅要着眼于安全性,更要关注人类在乎的价值问题。
问:如何让人工智能具有道德?
艾伦:首先要说的是,人类自己还不是完全道德的,将一个人培养成有道德的人可不是一件容易的事。人类的本质都是出于利己主义做事,而不考虑他人的需求和利益。然而,一个道德的智能体必须学会克制自己的欲望以方便他人。我们现在构建的机器人,其实并不具有自己的欲望,也没有自己的动机,因为它们没有自私的利益。所以,训练人工智能和训练人的道德是有很大差异的。对机器的训练问题在于,我们怎样才能赋予机器一种能力,让它敏感地察觉到哪些对人类的道德价值观而言是重要的事情。此外,机器需要认识到它的行为会对人类造成痛苦吗?我认为是需要的。我们可以考虑通过编程,使机器按照这种方式行事,且无需考虑怎么让机器人优先考虑他者利益,毕竟目前的机器还不拥有利己的本能。
问:发展人工智能的道德应采用怎样的模式?
艾伦:我们曾在《道德机器》中讨论了机器道德发展模式,认为“自上而下”和“自下而上”相混合的模式是最佳答案。首先谈一谈“自上而下”和“自下而上”意味着什么。我们以两种不同的方式使用这两个术语。一个是工程的视角,也就是一些技术和计算机科学的视角,例如机器学习和人工进化,而另一个则是伦理学视角。机器学习和人工进化并不从任何原则开始,它们只是试图使机器符合特定类型的行为描述,并且在给定输入使机器以这种方式行事时,它的行为能够符合特定类型,这叫“自下而上”。与之相比,“自上而下”的方法则意味着一个清晰的、将规则赋予决策过程的模式,并且试图写出规则来指导机器学习。我们可以说,在工程领域中,“自下向上”是从数据当中学习经验,而“自上向下”则是用确定的规则进行预编程。
在一些伦理学领域也有这种“上下之别”,比如康德,还有更早的功利主义学派,如边沁和密尔,他们就更像是“自上而下”。这些学者试图制定规则以及普遍原则,以便通过这些“条条框框”判断出一个行为是不是道德的。这样对康德的道德律令而言,其涵义就包含着多项具体规则,例如“不撒谎”。
亚里士多德对于道德持有相当不同的观点。他认为,道德应当是一个人通过训练而习得的。因此,亚里士多德的观点就更倾向于一种“自下向上”的方法,这种方法就是一个人通过练习变得好、善良、勇敢。当践行道德的时候,我们就称之为美德伦理。通过这样做,一个人会变得更具美德、会有更好的行为。
我认为亚里士多德的看法更正确。因为人类并不是靠“瞎碰瞎撞”去养成习惯的,也会对习惯进行思考,并思考需要哪些原则。亚里士多德注意到,在原则灌输和习惯训练之间存在着一种相互作用。我们认为,这种途径同样也适用于人工道德智能体的构建。在很多实时决策的情境下,我们并没有足够的时间来反思行为背后的理论或原则含义。但是,我们还可以从错误中学习,因为可以使用这些“自上向下”的原则重新评估我们所做的事情,之后再进行调整和重新训练。
这就是混合方法的基本思路,我认为它确实符合人类的情形。举个例子,当你还是个孩童时,你对兄弟姐妹做了什么不好的事情,父母会说“如果这种事情发生在你身上,你会有何感受呢”,是吧?在许多道德传统中都有这样一种原则:“以你自己对待自己的方式,或是你希望被别人对待的方式去对待他人”,有时人们也称这一原则为黄金法则。所以,你不仅仅被告知不要那样做,也并不仅仅因此而受罚,实际上你会被告知去思考这样做为何是好的或不好的,这就是“自上而下”与“自下而上”的结合。
问:应该限制人工智能的发展吗?
艾伦:我认为这取决于应用领域。我现在并不担心机器人或人工智能会取代人类,如果情况变得危险,我们是有能力去阻止它的。比如说突然发现机器人可以生产机器人,我们要做的无非就是切断电源。
当然,确实存在一些应当停止人工智能应用的地方,其中一个就是人们正致力开发的军事领域。从人类的历史来看,一旦有人构想出一个武器,那将很难阻止另一些人的欲望及其为之奋斗的野心。核武器和无人机就是很好的例子。
但是,我不认为应该阻止其他形式的人工智能发展。我们需要思考技术对生活带来了怎样的后果,比如说,自动驾驶汽车会使行人过马路更困难,还是更加容易呢?自动驾驶汽车面临行人过马路的情形时应附加什么样的权限呢?无人车看到行人能不能安全停下,还是说它像人类司机一样,依然有可能撞到行人?这些都是我们需要对人工智能进行思考的问题。无人驾驶汽车不仅不该停止发展,而是应该投入更多。
问:机器人会变得更好还是更危险?
艾伦:过去10年来,人工智能在某些方面的飞速发展令人吃惊,但算不上满意。在我看来,未来10年内无人驾驶汽车投放到真实路况中的可能性不大。苹果公司推出了一个可以交谈的智能体Siri,但以现在的情形来看,Siri很糟糕不是吗?所有我使用过的类似产品,诸如Alexa,Google Talk,都不尽人意。所以我现在不会从伦理的视角对人工智能的发展过于担心。这些企业居然真的发布了这些产品,但更令我惊奇的是,人们居然在很大程度上调整自身行为以适应人工智能,因为你知道把Siri当成正常人来交谈的话,它永远不会明白你的意思。人类在做出调整,并非机器,因为机器并不是一个自适应的系统。或者说,它比人类具有更弱的适应性。这是最令我担心的。
当然,我所担心的并不是机器做的事情超出人类的预想,而是它们可能改变并限制我们的行为。AlphaGo赢了围棋,但并未改变我们的日常生活,所以没什么好担心的。我担心人们用愚笨的方式与机器交谈,以便机器按照我们的想法做事。要知道,这具有许多潜在的危险。它潜移默化改变我们的习惯行为,使我们对某些类型的错误更具容忍性而对有些错误却更加苛刻。人们会预料到并且能容忍人类所犯的道德错误,但是,人类可能不会容忍这样的错误在机器上发生。经过规划考虑后仍对他人造成伤害的决定如果发生在机器上,会比发生在人类身上更不能令人容忍。在过去10年内,这种改变已经发生了。即使软件会变得更好,机器也会变得更好,但是永远都存在着让人类去适应机器而非真正提高人类能力的危险。
免责声明:本文由用户上传,如有侵权请联系删除!