繁体中文  
 
版主:bob
 · 九阳全新免清洗型豆浆机 全美最低
 
没有道德与信仰的逻辑--人工智能的又一天然缺陷 zt
送交者:  2017年06月22日08:27:39 于 [世界时事论坛] 发送悄悄话

慕容青草

近来传出谷歌与脸书在用深层思维(Deep Mind)或机器学习(Machine Learning)和机器思辨(Machine Reasoning)进行的实验中均出现一些人工智能表现出超出设计者意料的罔顾人类道德规范的状况。当然,那都是些非常原始的需要加以特别诠释才能与道德联系在一起的案例。但是,这些简单的案例却给了我们人类一个提醒:人工智能在逻辑的学习和思维的很多方面可能会远超过人类,但是它们却无法具备人类所持有的复杂的道德理念体系。这是人类在一味地发掘人工智能潜力时必须及早意识到的。对于人工智能来说,它们能够具备的满足人类需要的最高道德标准就是服从它们的主人,以及不利于它们主人的敌人。而这样的道德水平永远只能作为一种简单工具的行为准则,而无法满足人类社会的一般行为的道德规范。

比如,假设有一个具有高超的思辨能力的机器人外表与人一样。它的程序中告知它要忠于它的主人及主人的家人,然后把它放到社会上去为主人办事,而且把所在地区的所有法规都输入到它的系统中,使得它比专业律师还要精通法律,以免它做出违法的事给它的主人带来麻烦。那么我们对这个机器人的社会行为能有什么预期呢?我们对它的一个非常现实的预期将是它是一个在法律允许的范围内最会坑蒙拐骗打擦边球的道德沦丧的小人。除非他的主人给他制定一个永远要吃亏的标准,它在按照功利逻辑与法规去获得最佳行为效果的过程中,一定是超乎常人地诡诈和机敏而且不会上人类的当,更不会因为被人类激惹而闹情绪,因为它本来就没有情绪。

那么它的主人能否给通过给他输入一个“吃亏是福”的程序而让它不那么缺德呢?如果存在这种选项,那么社会就可以通过立法要求每个机器人的主人都一定要给他的机器人输入这样的程序。但那是不现实的,因为那样将让机器人无可适从,出现行为混乱。道理很简单,再聪明的机器人做判断也要依据它所掌握的数据,但在现实的社会中,没有一个人能够完全了解周围的每个人每件事的所有的历史状况,即便是与再大的数据库连在一起也不可能做到。在这种情况下,人类会因为恐惧,信仰,同情,爱心,友情等等情怀而在非常有限的资讯条件下来规范自己的行为。但是,由于机器人的思维是以数据为依据的逻辑运算,它不会有恐惧,没有也不需要信仰,不存在对人的同情与爱心,也不会了解什么是友情。所以它将完全按照功利的逻辑去思考,唯一顾忌的是明文的法规。虽然它无法掌握与周围人与物有关的所有数据,但它仍必须根据它所了解的数据做出判断及行动决策,这样思考的结果一定使它成为站在法律边缘的惟利是图坑蒙拐骗的道德沦丧的小人。

人类是否可以象有些有些电邮里表现的那样让机器人学会相互合作然后争取共赢呢?现实中的机器人也可以学会相互合作争取共赢,但前提条件一定是在特别预设的可以让它了解所有的参数的前提之下的,而不是在开放的不可能完全预知所涉及的对象的所有状况条件的情况之下的。这首先是因为人类自己不可能找出一个人类的一般社会行为模式,因此也无法将这样的行为模式事先告诉机器人。在马路上随时可能会骗子,甚至恐怖主义者,因此机器人的设计者就不可能在无法判断谁是怀有恶意的前提下让机器人相信所有的人。

两千多年前希腊先哲柏拉图在他的《理想国》一书中记载了他的老师苏格拉底与色拉叙马霍斯之间关于什么是正义的辩论(见本博客“一次关于正义与非正义的世纪辩论”一文)。在那场辩论中,从现实的社会逻辑来看,苏格拉底根本就不是色拉叙马霍斯的对手,而苏格拉底是在把那场辩论拉到了超自然的灵命的层次上之后才最终击败了色拉叙马霍斯。这本身表明如果完全按照人类现实社会的功利逻辑而不考虑超出功利的信仰及爱心等非功利的因素,那么人类自身的逻辑一定会导致不道德的结果。

那么,人类是否可以将信仰,道德,同情,爱心,友情,甚至恐惧来数据化输入给机器人呢?可以,但是不会有任何实际意义,这是因为人类自己还没有将这些因素搞明白,而这些因素又不像围棋的逻辑那样可以通过深度思考(Deep Mind)来推导出来。实际上,信仰,道德,同情,爱心,友情等情怀与我们平时所说的逻辑思维是不属于同一逻辑层次的。这不是说信仰,道德,同情,爱心,友情等都不符合逻辑。人只要有思维就无法摆脱逻辑。但是上述这些情怀本身却又高出基本的逻辑层次,为人类的思维逻辑增添了附加的成分。因此,它们不是可以由形式逻辑推导出来的。

我曾在其它文章中提到过,哲学仅属于人类不属于机器人,那是因为哲学建立在概念基础之上,而机器人的思考依据的是数据,它既不理解概念也不需要概念。而由于信仰,道德,同情,爱心,友情,乃至恐惧在现实生活中的具体环境中可以表现出非常具体的形式,因而可以用非概念性的数据来进行模拟,但是一方面由于它们不在基本逻辑的层次上因而这样的模拟本身无法超越人类对之非常有限的理解,另一方面机器人的逻辑本身就与人类的逻辑千差万别,因此最多能让他们按照人类自己的理解去非常有限地理解人类在相应的情怀下的感觉的某些特征,而不可能让它们自己具有这样的情怀(因此就不可能有同情之说)。

不过,如我在之前的一篇文章中提到的,脸书在不久前宣布已在用意念打字方面取得技术性进展。这意味着从原理上来说人类将有能力透过科技来窥视他人的语言性思维,这样的技术将使得机器人在与人打交道时有可能通过窥视人类的语言性思维来了解对方是否有敌意。但是,这样的技术本身显然不是为了与人为善。因此,不可能通过这样的技术来让机器人达到人的高水平的道德标准。

所以,同哲学一样,信仰,道德,同情,爱心,友情将是人工智能的又一个不可能占据的境界,它们只属于人类而不属于人工智能;而人工智能可以满足的对于人类的最高道德就是听命于主人,不利于主人的对头。而对于谁是主人的对头的判断将是相当的不稳定的,因而存在着伤害主人的朋友的可能性。而人工智能如果被应用在开放性的一般社会中的话,那么相应的机器人一定最善于打法律擦边球的坑蒙拐骗惟利是图的缺德小人。。。


评论前需要先 登录 或者 注册发表                              
                       


0%(0)
0%(0)
标 题 (必选项):
内 容 (选填项):
实用资讯
北美最大最全的折扣机票网站
美国名厂保健品一级代理,花旗参,维他命,鱼油,卵磷脂,30天退货保证.买百免邮.
一周点击热帖 更多>>
一周回复热帖
历史上的今天:回复热帖
2016: 中国经济危机将至?前景可怕 zt
2016: 一个台湾学者眼中的中共体制
2015: 中美俄三角关系的七大演变 z
2015: 香港赏了北京一记响亮的耳光 z
2014: 截至下午5时 实体票站不到3.2万人投
2014: 晚上八时4.3万人到「佔中」实体投票
2013: 日行一善,打脸最宜:听装圣母的「人类在
2013: 进步是一点一点累积的,不吃动物也是如
2012: 谁干的?难道是给胡温上眼药?
2012: 请温总理不要委过于文革了