资讯

INFORMATION

您现在的位置?#28023;?a href="/">首页 > 资讯管理 > > 原创新闻

人类能造出有道德的机器人吗?

来源:
2019/01/22 09:48:27 已浏览:

2018年12月18日,?#35775;?#20154;工智能高级别组发布了一份人工智能道德准则草案。在许多人担忧人工智能取代人类、破?#24503;?#29702;的大背景下,该草案旨在指导人们制造一种“可信赖的人工智能”。如何才能让机器人更令人信?#25285;?#21487;否赋予它们道德修养呢?就此话题,作者采访了美国匹兹堡大学科学哲学和科学史?#21040;?#20986;教授、西安交通大学长江讲座教授科林·艾伦。



 问:什么是人工智能的“道德?#20445;?

  艾伦:人工智能的“道德?#20445;?#25110;者说“道德机器”“机器道德?#20445;?#26377;很多不同的含义。我将这些含义归为3种。种含义中,机器应具有与人类完全相同的道德能力。第二种含义中,机器不用完全具备人类的能力,但它们对道德相关的事实应该具有敏?#34892;裕?#24182;且能依据事?#21040;?#34892;自主决策。第三种含义则是?#25285;?#26426;器设计者会在低层面上考虑机器的道德,但是并没有赋予机器人关注道德事实并做出决策的能力。

  就目前而言,种含义所设想的机器仍是一个科学幻想。所以,我在《道德机器》一书中略过了对它的?#25945;鄭?#32780;更有兴趣?#25945;?#37027;些介乎第二、第三种意义之间的机器。当下,我们希望设计者在设计机器人时能够考虑道德因素。这是因为,在没有人类直接监督的情况下,机器人可能将在公共领域承担越来越多的工作。这是我们次创造可以无监督地运行的机器,这也是人工智能伦理问题与以往一些科技伦理问题之间本质的区别。在这样的“无监督”情境中,我们希望机器能够做出更道德的决策,希望对机器的设计不仅仅要着眼于安全性,更要关注人类在乎的价值问题。

  问:如何让人工智能具有道德?

  艾伦:首先要说的是,人类自己还不是完全道德的,将一个人培养成有道德的人可不是一件容易的事。人类的本质都是出于利己主义做事,而不考虑他人的需求和利益。然而,一个道德的智能体必须学会克制自己的欲望以方便他人。我们现在构建的机器人,其实并不具有自己的欲望,也没有自己的动机,因为它们没有自私的利益。所以,训练人工智能和训练人的道德是有很大差异的。对机器的训练问题在于,我们怎样才能赋予机器一种能力,?#30431;?#25935;感地察觉到哪些对人类的道德价值观而言是重要的事情。此外,机器需要认识到它的行为会对人类造成痛苦吗?我认为是需要的。我们可以考虑通过编程,使机器按照这种方式行事,且无需考虑怎么让机器人优先考虑他者利益,毕竟目前的机器还不拥有利己的本能。

  问:发展人工智能的道德应采用怎样的模式?

  艾伦?#20309;?#20204;曾在《道德机器?#20998;?#35752;论了机器道德发展模式,认为“自上而下”和“自下而上”相混合的模式是答案。首先谈一谈“自上而下”和“自下而上”意味着什么。我们以两种不同的方式使用这两个术语。一个是工程的视角,也就是一些技术和计算机科学的视角,例如机器学习和人工进化,而另一个则是伦理学视角。机器学习和人工进化并不从任何原则开始,它们只是试图使机器符合特定类型的行为描述,并且在给定输入使机器以这种方式行事时,它的行为能够符合特定类型,这叫“自下而上”。与之相比,“自上而下”的方法则意味着一个清晰的、将规则赋予决策过程的模式,并且试图写出规则来指导机器学习。我们可以?#25285;?#22312;工程领域中,“自下向上”是从数据当中学习经验,而“自上向下”则是用确定的规则进行预编程。

  在一些伦理学领域也有这种“上下之别?#20445;?#27604;如康德,还有更早的功利主义学派,如边沁和密尔,他们就更像是“自上而下”。这些学者试图制定规则以及普遍原则,以便通过这些“条条框框”判断出一个行为是不是道德的。这样对康德的道德律令而言,其涵义就包含着多项具体规则,例如?#23433;?#25746;谎”。

  亚里士多德对于道德持有相当不同的观点。他认为,道德应当是一个人通过训练而习得的。因此,亚里士多德的观点就更倾向于一种“自下向上”的方法,这种方法就是一个人通过练习变得好、善良、勇敢。当践行道德的时候,我们就称之为美德伦理。通过这样做,一个人会变得更具美德、会有更好的行为。

  我认为亚里士多德的看法更正确。因为人类并不是靠“瞎碰瞎撞?#27604;?#20859;?#19978;?#24815;的,也会对习惯进行思考,并思考需要哪些原则。亚里士多德注意到,在原则灌输和习惯训?#20998;?#38388;存在着一种相互作用。我们认为,这种途径同样也适用于人工道德智能体的构建。在很多实时决策的情境下,我们并没有足够的时间来?#27492;?#34892;为背后的理论或原则含义。但是,我们还可?#28304;?#38169;误中学习,因为可以使用这些“自上向下”的原则重新评估我们所做的事情,之后再进行调整和重新训练。

  这就是混合方法的基本思路,我认为它确实符合人类的情形。举个例子,当你还是个孩童时,你对?#20540;?#22992;妹做了什么不好的事情,父母会说“如果这种事情发生在你身上,你会有何感受呢?#20445;?#26159;吧?在许多道德传统中都有这样一种原则:“以你自己?#28304;?#33258;己的方式,或是你希望被别人?#28304;?#30340;方式去?#28304;?#20182;人?#20445;?#26377;时人们也称这一原则为黄金法则。所以,你不仅仅被告知不要那样做,也并不仅仅因此而受罚,?#23548;?#19978;你会被告知去思考这样做为何是好的或不好的,这就是“自上而下”与“自下而上”的结合。

  问:应该限制人工智能的发展吗?

  艾伦?#20309;?#35748;为这取决于应用领域。我现在并不担心机器人或人工智能会取代人类,如果情况变得危险,我们是有能力去阻止它的。比如说突然发现机器人可以生产机器人,我们要做的无非就是切?#31995;?#28304;。

  当然,确实存在一些应当停止人工智能应用的地方,其中一个就是人们正致力开发的军事领域。从人类的历史来看,一旦有人构想出一个武器,那将很难阻止另一些人的欲望及其为之奋斗的野心。?#23435;?#22120;和无人机就是很好的例子。

  但是,我不认为应该阻止其他?#38382;?#30340;人工智能发展。我们需要思?#25216;?#26415;对生活带来了怎样的后果,比如?#25285;?#33258;动驾?#40644;?#36710;会使行人过马路更困难,还是更加容易呢?自动驾?#40644;?#36710;面临行人过马路的情?#38382;?#24212;附加什么样的权限呢?无人车看到行人能不能安全停下,还是说它像人类司机一样,依然有可能撞到行人?#31354;?#20123;都是我们需要对人工智能进行思考的问题。无人驾?#40644;?#36710;不仅不该停止发展,而是应该投入更多。

  问:机器人会变得更?#27809;?#26159;更危险?

  艾伦:过去10年来,人工智能在某些方面的飞速发展令人吃惊,但算不?#19979;?#24847;。在我看来,未来10年内无人驾?#40644;?#36710;?#26007;?#21040;真?#24503;?#20917;中的可能性不大。?#36824;?#20844;?#23601;?#20986;了一个可以交谈的智能体Siri,但以现在的情形来看,Siri很糟糕不是吗?所有我使用过的类似产品,诸如Alexa,Google Talk,都不尽人意。所以我现在不会从伦理的视角对人工智能的发展过于担心。这些企业居然真的发布了这些产品,但更令我惊奇的是,人们居然在很大程度?#31995;?#25972;自身行为以适应人工智能,因为你知道把Siri?#32972;?#27491;常人来交谈的话,它永远不会明白你的意思。人类在做出调整,并非机器,因为机器并不是一个自适应的系统。或者?#25285;?#23427;比人类具有更弱的适应性。这是令?#19994;?#24515;的。

  当然,我所担心的并不是机器做的事情超出人类的预想,而是它们可能改变并限制我们的行为。AlphaGo赢了围棋,但并未改变我们的日常生活,所以没什么好担心的。?#19994;?#24515;人们用愚笨的方式与机器交谈,以便机器按照我们的想法做事。要知道,这具有许多潜在的危险。它潜移默化改变我们的习惯行为,使我们对某些类型的错误更具容忍性而对有些错误却更加苛刻。人们会预料到并且能容忍人类所犯的道德错误,但是,人类可能不会容忍这样的错误在机器上发生。经过规划考虑后仍对他人造成伤害的决定如果发生在机器上,会比发生在人类身?#32454;?#19981;能令人容忍。在过去10年内,这?#25351;?#21464;已经发生了。即使软件会变得更好,机器也会变得更好,但是永远都存在着让人类去适应机器而非真正提高人类能力的危险。



您认为该新闻

很好,强力推荐给其他网友

还行,值得推荐

一般,不值得推荐

较差,根本不用看

网友推荐新闻:

  • 关注本网官方微信公众号 随时阅读专业资讯

  • 征稿邮箱:[email protected]

版权与免责声明

  • 凡本网注明“来源:仪器仪表交易网”的所有作品,均为仪器仪表交易网合法拥有版权或有权使用的作品,未经本网授权?#22351;?#36716;载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:仪器仪表交易网”。违反上述声明者,本网将追?#31185;?#30456;关法律责任。
  • 本网转载并注明自其它来源(非仪器仪表交易网)的作品,目的在于传递更多信息,并不代表本网赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。其他?#25945;濉?#32593;站或个人从本网转载时,必须保留本网注明的作品第一来源,并自负版权等法律责任。
  • 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联?#25285;?#21542;则视为放弃相关权利。

推荐资讯

首页 | 关于我们 | 联系我们 | 友情链接 | 广告服务 | 会员服务 | 付款方式 | 意见反馈 | 法律声明 | 服务条款

曼城首发阵容
北京pk赛车139开奖历史 黑马人工博客计划 北京塞车pk10历史开奖记录 psv十大最耐玩的游戏 时时彩抢眼人工计划 pk10怎么抓走势 重庆彩开奖号码查询 259彩票官方下载 炸金花赢钱的小方法 飞艇计划哪里有 彩神8官网 免费金币二八杠游戏下载 pc蛋蛋哪个平台不错 福建时时快3开奖结果 北京pk10走势图怎么分析 信德网上娱乐平台