百色金融新闻网
您的位置:百色金融新闻网 > 金融新闻 > 清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场-清华大学机器人

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场-清华大学机器人

作者:百色金融新闻网日期:

返回目录:金融新闻

最新资讯《清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场-清华大学机器人》主要内容是清华大学机器人,人类最强棋手柯洁败给阿法狗,意味着一个“可怕”的现实——比人类“聪明”的机器已经出现。智力活动的意义,现在请大家看具体新闻资讯。

律新社作者 | 周正

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

人类最强棋手柯洁败给阿法狗,意味着一个“可怕”的现实——比人类“聪明”的机器已经出现。

智力活动的意义被颠覆,人工智能被用于战争,人类如何从社会制度和法律规制等方面处理人机关系……人工智能给人类社会带来了空前的挑战。

2017年6月8日,清华大学梅汝璈讲席冯象教授,在上海华东师范大学做了题为“机器人律师,机器人医生,然后……”的讲座,吸引百余名师生现场聆听。本次讲座是2017年“双百活动”暨“上海法学讲坛”第五讲,也是华东师范大学人文社科“知名学者学术讲座”第11场。讲座由上海市法学会、华东师范大学法学院及社科处共同主办。上海市法学会秘书长毛坚平到场致辞。

律新社在现场第一时间独家分享了讲座的精彩内容,现将讲座内容整理发布,以飨大众。

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

清华大学梅汝璈讲席冯象教授

人工智能的最新发展

阿法狗(AlphaGo)

阿法狗又来了。和上次对战李世石不一样,这一回,几乎没有人认为人类能够获胜。但柯洁已经表现得非常好,阿法狗团队评价柯洁几乎是下出了人类最完美的棋。但就像聂卫平说的,再完美也不过是人类的棋,人工智能的棋我们现在已经很难理解。

考试机器

2017年,两台人工智能机器“参加”高考,做的是数学卷。其中一台获得105分(150分满分)只能说表现比较一般。但是,另外一台与6个往年的高考状元在封闭的环境里同时做题,结果,机器得分只比6人平均分少一分。

立案机器

2016年,最高人民法院尝试用机器人立案。据说,实践的结果是立案机器人的错误率远低于人类。近几年,法院内部案多人少的问题尚未完全解决,但在可见的未来,机器人可能很快就能分担法院的一部分工作。

无人汽车

当前,无人汽车技术已经比较成熟。但无人汽车需要在一个智能化的交通网络中运行,这一点目前尚难达到。但不难想象的是,未来,人工驾驶的汽车才是智能交通网络中最危险的“稀罕物”。政府或许会在郊区专门开辟“驾驶乐园”,供喜欢驾驶的人“过把瘾”。

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

假设有一颗“围棋星球”

人类如何应对人工智能在未来高度发达后可能出现的窘境?冯象教授提到了这样一个思想实验——“围棋星球”。

假设有这么一颗“围棋星球”,在这个星球上,除了围棋棋手,没有任何为人所称道的职业,其他所有的生产都是为下棋服务的。

在这个星球上,人类最高的理想就是当一名职业棋手。所有人从出生开始就要接触并学习围棋,并以之为终生追求。

那么,假设这个星球上人工智能也高速发展,人类也造出了阿法狗这样的人工智能,也举行了人机之间的围棋比赛,并且比赛结果也和地球上一样,人类输给了机器。

请问,这个星球要怎么处理人工智能的问题?

对地球上的人类来讲,围棋只是一种智力运动。但在“围棋星球”上,围棋是人类的最高理想。如果人工智能超越了人类,就会导致一种非常尴尬的境地。

这样的社会将面临着巨大的挑战:人类如何决定围棋的未来?

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

柯洁对战阿法狗时陷入苦思

日本围棋大师藤泽秀行曾说过一句话,“棋道一百,只知其七。”过去我们以为这句话是一种艺术表达,是为了表现棋道的高深。

但是,今天阿法狗让我们发现人类真的只知道7%。所以柯洁比赛完后非常难过,他再也无法知道自己到底对围棋了解、掌握到了什么程度。也就是说,围棋作为一门知识、技艺、艺术或艺术理想,人类无法知道自己真正掌握了多少。

如果阿法狗团队公布了机器人与机器人对弈的50盘棋局,很可能我们人类已经看不大懂。 当年,卡斯帕罗夫和“深蓝”决战国际象棋。前者输掉比赛之后,IBM将“深蓝”雪藏。而现在,人工智能不断发展,一些国际大赛已经离不开人工智能。

在一些赛制为“人机搭配”的大赛中,就出现了一个很有意思的现象:某场比赛中,所有最优秀的棋手都被淘汰了,最终获胜是两个小伙子。论棋艺,这两个人绝对不是最好的,但他们最会“摆弄”机器,所以最终胜出。

这就反应出一个问题:一旦人工智能超越了人类,围棋比赛的意义就被完全颠覆。

拿到冠军的人类不是最会下棋的,只是最懂机器。就好比奥林匹克竞赛中所有的选手都可以吃药,最后比的是谁的药更先进而已,奥林匹克也失去了意义。

所以,“围棋星球”上的人类必须做出选择——人类到底要不要人工智能。

如果决定是“要”,那么人类存在于这个星球上的意义是什么?整个星球的方方面面都会被颠覆。

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

地球也不能“幸免”

“围棋星球”是一个高度简化的思想实验模型,但其也在一定程度上对地球的实际情况有着参考意义。借这个思想实验,冯象教授就提出了三个问题:

类似的挑战会否出现

虽然目前地球上的行业生态比较丰富,围棋只是万千人类智力活动中的一种,但类似于“围棋星球”的挑战也并非不可能出现。

冯象教授观察到,在国内,法律界的人士比较保守,不太相信人工智能会造成很大挑战。

但在一些行业里,人工智能已经显露了其巨大的“威力”,带来了一些难以解决的问题。如果机器人能回答法律问题,那么它也不可避免地介入了政治,因为法律的本质就是政治,这也将带来一系列的问题。

前不久,在北大法学院的知识产权课上,老师就请了一个机器人到课堂上来与学生对话。学生可以向机器人问法律问题,例如“知识产权是什么”,据说机器人回答得还不错。

研发该机器人的公司声称,机器人永远不可能取代老师,因为机器人没有感情,而人类有感情,教学活动不仅是回答问题,而且还有感情的交流,这一点机器人无法做到。

这种说法有一定的道理,但是,机器人有没有感情并不重要,重要的是机器人能否识别人类的感情,以及是否会作出回应。人工智能领域长久以来研究的一个主要课题就是“机器如何具有自我意识”。机器人如果要进入医疗服务和家庭护理等行业,就必须能识别人类的表情和感情变化,然后给出回应。

达到这一点或许并不是不可能,因为我们已经能很明确地看到人工智能的自我学习能力。在和李世石下棋之前,阿法狗曾和欧洲的七段选手对弈。当时的阿法狗“棋艺”肯定不如现在,但它现在已经超越了人类最强的棋手。

人工智能自我能力的提升过程在开始阶段比较慢,但其后它可以自己学习。人工智能从弱人工智能、狭隘人工智能到强人工智能、通用人工智能的过程可能比我们预想的要快得多。

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

美军无人机

工智能可否仅和平使用

冯象教授坦言这个问题其实已经过时。人工智能早已参与战争,无人机就是最典型的例子,它也早已不是仅做侦查之用,还承担了部分杀戮的任务。事实上,一般来说,一个国家的军事领域往往是技术应用最先进的领域。和平使用人工智能的愿望早已破灭,接下来是如何限制它的问题。

去年的“人机大战”后不久,联合国曾讨论过这个问题。再往前,哈佛大学的一个团队已经讨论过“是否需要限制人工智能”的问题。在今年的一个有人工智能界、科学界、法律界的专家参加的全球大会上,一份宣言被发表,宣言实际上也是重申了这个问题。

联合国也在考虑是以国际公约的形式,或以联合国为主导的谈判,或依赖业界本身的自律来处理对人工智能的限制。以及,如果要引进第三方的监督,怎么设计机制才好。

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

威尔·史密斯主演的电影《我,机器人》

如何处理人机关系

冯象教授认为,如果人工智能会给人来带来巨大的挑战,如何处理人机关系就必须认真考虑。

科幻小说家阿西莫夫在《我,机器人》里曾提出过著名的“机器人三定律”:

一、机器人不得伤害人类或坐视人类受到伤害;

二、除非违背命定律一,机器人必须遵从人类的命令;

三、除非违背定律一或定律二,机器人必须保护自己。

“机器人三定律”作为一种逻辑上的总结,能够实现当然很好,但现实中很难。其并不像无人机等实体,总是可以通过法律规制等手段进行管控,从而消除风险。

人工智能不一样,其被开发出来就是为了使用,所以没法事后制定一个规范来规定人工智能该如何应用。

比如无人驾驶,目前来讲其技术已经非常成熟。如果无人驾驶可以有效降低成本,被大规模使用,相匹配的法律就必须事先准备好,而不能说让技术先用起来,再看看法律怎么办。

无人驾驶造成的事故其责任风险可能非常复杂,不是现在的交通驾驶法律法规能涵盖的。

要实现无人驾驶并不是说对汽车有多高的要求,而是整个道路系统必须是人工智能的,汽车上路之后实际上是在巨大的智能道路网络里运行的。整个公路网是智能的,汽车只不过是小小的终端。

驾驶的法律风险也会变得完全不同。到那个时候,上路的车有人驾驶是不大可能的。也许政府会在郊外开辟一个地区,让喜欢驾驶的人来玩一玩,因为到那时候有人驾驶的汽车才是整个网络里最危险的车辆,没有保险公司愿意承保。

到了那一天,无人驾驶不再只是我们想象中的技术,而成了一种日常的交通管理。

仅以此为例,把三定律放在这里都很难实现:

1、人和人之间意见不同,只要机器能识别人类感情,对人类的效忠就不再可能是无区别的。人类之间有矛盾,机器也需要做出决定,因此定律一做不到。有人会命令机器去做某种事情,而这个行为会直接或间接伤害到别的人类。

2、预料是困难的,在复杂社会里,动作与结果之间简单的因果关系机器可以预料,但无法实现更复杂的预判,所以定律二也无法实现。

3、机器人保护自己也很困难,要保护自己可能就会不保护什么别的东西,违反定律一。

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

电影《机器人管家》中,机器人爱上了人类

现有社会制度恐怕承担不起人工智能

除了上述三个问题,冯象教授认为更困难的问题是,大多数人类所处的社会制度本身可能承担不起人工智能。

他认为,首先,经济制度本身使得人工智能很容易成为少数人的工具,而不是服务于大多数人。且有了人工智能后,人与人之间的差距可能会进一步扩大。比如医疗服务,高质量的服务会变得非常昂贵。就此我们不难设想一种情形:只有富人才能享受最先进的人工智能,而其他人则会落入另一重境遇。

冯象教授表示他不那么悲观,因为虽然一方面人工智能会加剧不平等,但另一方面其也会促进人们更加要求平等。

90年代以来,人类中似乎有一股潮流,那就是对平等的渴望比原来更强烈。比如,在互联网上,大家都认为不应该受到财产利益的约束,每个人都“非法”获益。但从互联网文化的角度讲,没有人觉得这有很大问题,大家普遍认为互联网上的资源就应该是公用的,在互联网领域内一切都应该是共享的。

互联网上的平等理念已经蔓延到其他地方。比如欧盟的难民问题,大量难民进入德国以后拒绝工作,只吃福利,要求被“平等对待”。

其次,一旦人工智能更为发达,大量人类的工作将被取代。我们不难想象的是,蓝领阶层的劳动肯定会被取代,中国在这方面已经做得很好,青岛港的主要部分已经是无人港,其他港口也都在向这个方向发展。

而且,医生、律师这些比较需要知识的职业的被取代,现在看来似乎也是不可阻挡的。天津第三人民医院已经引进了美国的机器人来诊断癌症,就文献阅读量而言,人类同机器完全不可比。很多大的律所也都开始尝试使用机器人律师。

银行等领域的大规模裁员已不少见,人工智能继续发展,现有的工作和收入分配制度将因为机器人的大量被应用而受到巨大挑战。

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

银行客服机器人吸引众人围观

对此,冯象教授提出了两点看法:

第一、人工智能+互联网文化所产生的平等要求可能催生出下一轮的革命。

怎么让许许多多用不着工作的人得到安顿?冯象教授去年在华政的演讲中曾提到过计划经济的问题,马云也提出,未来可能只能搞计划经济。以前的计划经济是粗略的,而现在的计划不同,信息的透明程度使得我们基本上能知道下一步会有什么样的需求,从而做出相应的安排。

马云提出计划经济的设想,是因为他自己已经掌握了大量的数据,在消费领域有计划的实力。这样的“计划”放到国家层面来讲也并不难。

任何人机关系可能性中最大的障碍,是人类所生活的经济社会和文化制度本身使得机器与人不太能够和平相处,我们应该严肃考虑制度改变从而带来人机关系改变的可能性。

第二、人工智能有巨大的风险,必须要对其监管和规制。

人工智能对人类的风险不亚于核武器和生化武器,同理,我们不可能放心把其交由私人企业来完全把控。因而,如果人工智能继续发展,可能必须要由政府来介入。

也许在不久的将来,政府部门在这方面的信息透明压力会越来越大,包括商业信息、公司信息等等。公司需要向政府实时报告信息,让政府来监督机器的使用。

比尔盖茨建议向机器收税。虽然机器的税最终还是人来交,但他认为机器不会隐瞒实情。

如果政府向机器收税,就必须知道每个机器在干什么,监管就必须落实到每一台机器。甚至,每一个手机都必须实时向政府部门回馈使用情况,因为在未来每一个手机都是人工智能。到那时候,对政府的要求会提高到多高的地步,老百姓和政府部门的关系就不是今天的行政法所能想象的了。

这种程度上,我们怎样用法律法规来构建一个不同的社会就会是一个很大的挑战。

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

阿诺施瓦辛格主演的电影《终结者》系列已成经典

挑战空前,人类必须不断前行

冯象教授相信人类政府部门应该有足够的智慧来处理这个问题,但挑战是空前的。

人类从来没有面临过这样一个情况——有一个东西在智能上超过了人。以前有比人跑得快的,有比人力气大的,但没有什么东西比人类更聪明。现在不一样了,人类最好的棋手也不知道下一步棋是什么,机器已经大大超过人类。这个时候,如何设计制度就必须被重视和认真考虑。

冯象教授认为,人工智能对人类的替代会产生很大的问题,但这也同时要求我们一方面要好好利用人工智能,另一方面人类自己也要不断往前走,不能停留在现在这个样子,如果是十年后高度发达的人工智能放到我们现在的体制内,要出大问题。

例如,在法律界,如果机器人大量地介入,律所也用,法院也用,政府部门就当然必须也用。

一种情形有可能出现:机器把法律搞得非常复杂,人都看不懂。一个简单的案子让机器去办,结果它弄出很多人想都没想过的东西,人傻眼了,最后只能交给它办。机器不怕复杂,所以面对这种挑战,人类必须不仅在技术上有所应对,还要重新设计经济、文化、社会各方面的制度,让它能应对技术的挑战,同时保证人类获得更优质的服务。

另外,有些事情的可能性我们现在来想不是很大,比如人工智能是否会有感情。但有专家指出,人工智能领域,即使是微小的可能性人类也必须全力研究,因为即便是最小的可能性,一次意外所带来的灾害也可能是人类承受不起的。比如人工智能会否有感情的问题,现在普遍来说人们认为不会。但这个可能性只要有一点点,我们就必须研究,这对人类来说是非常高的要求。

最后,冯象教授以麻省理工学院人工智能领军人物马文·明斯基的话作为结束。明斯基曾说,他最幸运的就是这辈子用不着回答未来人类所必须回答的问题——到底要不要发展某一种人工智能。

“围棋星球”上的人类可能为了维持既有的精神文明而集体投票决定放弃发展人工智能,人类社会或许也会有这么一天,而这个决定的做出将会无比困难。人工智能在未来有着各种各样的可能,将为整个人类社会带来革命性、颠覆性的改变。

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

现场座无虚席

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

冯象教授为热心听众签名

清华大学冯象教授:机器人律师,机器人医生,然后——|律新社在现场

律新社现场独家播报分享

(本文根据讲座录音整理,未经本人审阅,小标题为编者所加,仅为方便阅读,不代表本人观点)

相关阅读

关键词不能为空

经济新闻_金融新闻_财经要闻_理财投资_理财保险_百色金融新闻网