经济走势跟踪(1740期)人工智能的大爆发与思考(二)

  人工智能在近两年突然爆发,更多的人们开始预测“奇点”到来的时间,投资家在忙着砸钱,科技“权贵”公司争相发布新款产品,媒体和出版铺天盖地,而国家则在制订发展规划……人工智能几乎一夜之间就占领了风口。实际上,人工智能从其概念的提出至今,已经发展了60年,作为很有可能彻底改变人类生存方式的创新技术,目前已经逐渐从实验室中走到了产业层面,而与其他产业不同的是,这项技术的产业发展和人类伦理和情感、和法律的冲突将是巨大的,也许我们谁都无法把握它的未来。

” 

  经济热点分析

  人工智能的大爆发与思考(二)

  上接1738期

  对人工智能的思考

  BAT三巨头对人工智能的不同思考

  一年一度的IT领袖峰会2017年4月1-2日在深圳市举行,2017的峰会主题为“迈进智能新时代”。其中最吸引人眼球的是BAT三巨头马云、马化腾、李彦宏也再次聚首,就“智能新时代”论剑交锋。大佬们畅所欲言,马云表示不屑阿尔法狗,李彦宏说人工智能是未来的主菜,马化腾称要把人工智能实验室开到微软边上。李彦宏认为未来应该是机器学习人的意图,人机对话成为一种自然语言,马云认为未来机器应该是人类的伙伴,拥有自己的独特的思维方式,而不是永远模仿人类,而马化腾认为人工智能发展到超越人的智慧,也是有可能的。

  百度和腾讯都在布局诸如图像识别的人工智能技术和产品。李彦宏认为,最近几年,市场环境产生了变化,人工智能的时代来了。

  马化腾认为无论是AlphaGo还是master,都只是局限在一个很窄的技能模拟上,人工智能的下一步会是技能的通用,再下一步就会是对背后原理的发掘。李彦宏认为,人工智能挑战人的认知能力,这一天几乎永远不可能到来,因为完全模仿人脑是不可能的。而马云则表示,未来要思考的不是artificial intelligence(人工智能),而是Machine intelligence(机器智能)。

  关于未来,李彦宏认为,现在的人工智能不是互联网的第三阶段,互联网只是开胃菜,人工智能才是主菜。他认为人工智能是一个非常大的产业,而且是会持续很长时间,未来20-50年都会是一个快速发展的人工智能时期。未来应该是机器、工具学习人的意图,这是未来几十年可能代表人工智能发展最大的方向。

  人工智能正在如何影响世界

  日本经济新闻的一份系列报道,对人工智能在世界各地的进展做了扫描式的报道,探究了人工智能当前产生的影响。

  人工智能取代人类 人类辅助人工智能

  报道提到了印度南部古都迈索尔大型IT服务企业印孚瑟斯技术(Infosys),该公司主营的客服中心业务被能够识别语音的人工智能系统所取代,系统开发也有人工智能参与其中。在提高生产效率的同时,公司19万员工中的约5%,换言之,相当于8000人以上从事的工作岗位不复存在。而日本野村综合研究所与英国牛津大学的研究结果表明,人工智能可以替代人类49%的工作。

  当然,人工智能在夺走人类工作岗位的同时也在创造新的职业。例如,为满足客户需求需要修改人工智能程序的人员、还有为便于人工智能进行分析需要可以对数据进行加工的人员,诸如这样的业务需求越来越多。比如印孚瑟斯技术的员工也参加了公司内部的人工智能培训。

  报道还提到,在美国,最近几年金融行业的交易员减少了10-20%。从2010年左右开始,人工智能开始进入相关行业,很多交易员先后辞职。但将人工智能等信息技术与金融相融合的金融科技(FinTech)企业“在纽约一个接一个出现”。

  人工智能也不是万能的。富国生命保险通过使用人工智能,将审核发放医疗保险部门的131人裁减了约30%。该公司把审查输入信息的工作交给了人工智能。但一名女性员工表示,“在读取病名等的时候会出现人工智能特有的错误,需要人工仔细检查”。据称,在人工智能检查的所有案件中,有约10%存在错误,需要人工复查。人类辅助人工智能工作的状况似乎越来越多。

  人类与人工智能既是盟友也是敌人

  日经的报道提到了韩朝军事分界线两侧的非军事区,韩国在这里部署了一种特殊的“士兵”,就是携带机关枪的机器人。据说这个机器人士兵可以感知半径4公里内的目标,紧急情况下开枪压制。首尔大学教授李范熙解释称,把人工智能和机器人安排到前线,人类士兵就可以不必面对危险。

  但也有人对机器人表示担忧。当机器人变得能自主发起攻击时,能否分清敌友、准确识别战斗人员和普通民众呢?日本拓殖大学教授佐藤丙午也表示,人工智能武器将成为现实的威胁,“如何控制是一个重要问题”。

  根据使用方法的不同,人工智能既能成为人类的敌人也能成为盟友。此前,和美国谷歌同属一个集团的DeepMind公司发表了“可模仿任何人声音”的声音合成技术。随后,美国就出现了对这种技术“很容易被用于诈骗”的担忧。在日本,也可能被用于“冒充熟人的电话诈骗”。

  英国牛津大学等机构2015年公布了“威胁人类文明的12种风险”。人工智能与气候变化、核战争、全球性传染病流行等一起位列其中。人们对诞生无法控制的人工智能和机器人抱有强烈的恐惧。不过,日本将棋的棋手羽生善治王座表示:“人工智能也具有解决其他11种威胁的潜力”。如何面对在提供帮助的同时也可能带来灾难的人工智能?这将考验人类的智慧。

  人机磨合尚在途中

  在美国,仅洛杉矶就有4.7万名无家可归者,艾滋病感染和吸毒泛滥正在成为社会问题。面对如此状况,南加利福尼亚大学的研究人员们采取了行动。他们试图通过人工智能来探明难以从外部看清的无家可归者社会的真实状态。具体来说,就是分析无家可归者的人际关系,找到他们的领头人物。然后通过这些人物,向众多无家可归者提供此前一直无法推进的艾滋病检查等援助服务。

  研究人员在展开行动后发现,普通的方法是行不通的。原因是,仅仅依靠无家可归者志愿团体员工掌握的人际关系信息,人工智能无法顺利开展工作。“你的朋友是谁?”,致力于此项研究的埃里克·莱斯副教授为收集有关无家可归者人际网络的准确数据,最终只得多次与学生和工作人员亲赴一线收集信息。

  如果人工智能判断出的领头人物已不存在的话,就需要从头再来。仅仅学习网络上大数据的人工智能在现实社会中不一定始终管用。莱斯表示,人类与人工智能的相互合作“尚在途中”。

  如何发挥人工智能的真正价值?这是竞相引入人工智能的企业共同面临的课题。

  东京工业大学教授寺野隆雄指出,“在数据整备和人才方面,很多企业还没有做好利用人工智能的准备”。而许多引进了人工智能的企业发现,虽然看似已经开始步入正轨,但在截至目前的试验中依然错误不断。目前来看,由人类提供服务或许会比较顺利,但最终还是要继续依靠机器人。失败了下次总结经验教训就行,继续走下去才是通往未来的捷径。

  人类情感、法律与人工智能的关系

  在讨论人工智能的时候,绝对不能忽视的是人工智能与人的关系,而这中间,人类情感与人类世界的法律是不可绕开的两个最重要的方面。

  “理性与情感”

  在与FT中文网编辑朱振的谈话中,人工智能技术公司Emotech的合伙人庄宏斌谈到了他对人工智能的认识,他认为,“机器的理解,与人的理解,还是不同的概念。”

  庄宏斌认为,人工智能领域的产品,需要实现一种多感知、多维度的互动,这意味着创造一个全新的系统。尽管人工智能,已经具备无所不能的潜力。但从商业逻辑看,一切似乎还有待验证。今天的人工智能领域除了汹涌流入的金钱和舆论潮水,同样也存在对纲领、标准和产品形态等问题的语焉不详。人工智能并不是无所不能的神通,在人工智能领域的创业,也不会是一场“天人交战”的故事。在市场的熔炉中,起更大作用的,还是朴素的商业逻辑和对人性本身的理解。

  而在需要由人类进行情绪理解的工作上,“现在的人工智能更多是在一个特定领域,构建一个特定的学习系统,完成特定的学习目标。领域和领域之间,还无法联通。行业所欠缺的,是将不同的特定领域、特定场景的学习成果,用一个通用的逻辑判断机制联结起来。”

  法律面临人工智能的挑战

  在过去的一年之间,人工智能的发展已经引起了很多国家、国际组织的重视,联合国、美国、欧洲议会、英国、法国、电气和电子工程师协会(IEEE)先后发布多份关于人工智能的报告,讨论人工智能的影响和需要考虑的风险。这其中也包含了对于法律问题的讨论。

  北京市安理律师事务所高级合伙人王新锐表示,尽管人工智能从法律上很难准确定义,但从技术上来说,目前人工智能基本都会涉及机器学习技术(Machine Learning),这意味着需要收集、分析和使用大量数据,其中很多信息由于具有身份的识别性(包括结合其他信息识别身份),属于个人信息。按照个人信息保护方面的法律规定,这些行为应当取得用户明确、充分且完备的授权,并应当明确告知用户收集信息的目的、方式手段、内容、留存时限还有使用的范围等。

  除了需要按告知的方式和范围使用用户数据,人工智能应用的开发者还可能面临需要配合政府部门提供数据的情况。

  人工智能开发者在收集、使用数据的过程中,还要遵守安全保障原则,采取适当的、与个人信息遭受损害的可能性和严重性相适应的管理措施和技术手段,保护个人信息安全,防止未经授权的检索、披露及丢失、泄露、损毁和篡改个人信息。

  数据歧视和算法歧视:人工智能在应用中,往往需要利用数据训练算法。如果输入的数据代表性性不足或存在偏差,训练出的结果将可能将偏差放大并呈现出某种歧视特征。

  事故责任和产品责任:和其他技术一样,人工智能产品也有事故和产品责任的问题,但要分清是人为操作不当还是人工智能的缺陷并没有那么容易,举证上尤其困难。

  人工智能与行业监管:人工智能技术或者产品的研发本身目前并未设置行政许可和准入限制,但是一旦这些技术和产品将要应用到具体的行业之中,那么就有可能会涉及各类行业的牌照取得的问题。

  技术创新与不正当竞争:人工智能的优势,就在于它能在一定程度上模拟用户的思维过程,并辅助或代替用户作出决定。不难预见,这一过程中可能存在的服务交叉和选择偏好问题,将成为竞争法领域新的热门话题。

  人工智能的最高理想是代替用户决策,而决策隐含着对服务的筛选和分发,这意味着人工智能将成为一种全新的流量入口。可以预见的是,开发者夹带自身利益的冲动难以杜绝,但另一方面,也无需对此过度担忧,长远来看,只要用户依然享有用脚投票的权利,市场竞争始终是保证用户体验的不二法门。

  此外,在未成年人保护和AI伦理等领域,人工智能在法律上也还有很多需要解决的问题。

  人工智能如何变革法律?

  中国人民大学金融科技与互联网安全研究中心副主任许可在一篇文章中描述了法律可能面临的人工智能挑战。

  人工智能会改变法律的产生方式吗?

  所有成文法国家中,立法机关都是最重要的法律供给者。正因如此,它们念兹在兹的,就是如何通过体系完备、逻辑严密的法律规则,将纷繁芜杂的世间万物囊括其中。然而,任何既定的法律体系如果是完备的,就一定有矛盾;反之,如果它是无矛盾的,则必然不完备。为了化解这种悖论,立法机关不得不在明确的法律规则之外,引入抽象的法律原则与不确定的法律概念。以刚刚通过的《中华人民共和国民法总则》为例,其既有公平诚信、公序良俗等价值理念,又有“重大”、“合理”等模糊术语。正由于成文法的这一特色,司法机关才接过立法机关的接力棒,通过司法解释和个案判决,参与到法律的创造之中。但是,这种妥协在某种程度上为司法者打开了主观擅断的阀门,动摇了以立法为中心的法律产生模式。

  上述看似无解的困局如今却有望缓解。人工智能的到来,使收集、存储、处理和分析信息的成本大幅降低,基于深度学习的预测又远胜于目前的回归分析,这些令立法机关可以更好地预测人类行为及其后果,并能在算法的协助下,根据特定情形、特定地域和特定对象,自动化地制定细致、精准的规则,甚至能够一事一议。传统上以典型类型、普遍状态和静态经验为基础的立法,以及由此导致的不确定性和滞后性将不复重在,司法机关的事后介入和司法解释也将不再重要。在极端的情况下,鉴于法律已将几乎所有争议的处理结果予以事前规定,事后提交法院的诉讼必将大幅减少。

  人工智能对于法律产生的影响不限于此。在信息成本高昂的年代,法典是立法机关的优先选择,因为它所具有的体系功能,有助于最大程度地拓展调整范围,降低法律适用者搜寻成本,并防范恣意裁判。但在人工智能面前,不管数量多么庞大的法条,均瞬间可达、触手可及,法律规则的定制化更在法典之外滋生种种特别法。这么看来,法典的优势所剩无几,在未来很可能沦为中看不中用的古董旧物。

  人工智能会改变人们对法律的认知吗?

  法律是由宪法、法律、法规、规章、规范性文件、司法解释、指导性案例、公报案例形成的复杂化合物,学习它并不容易。而人工智能也许可以解决法律的繁复问题。比如今天人们出行时,车载GPS导航系统已经基本替代了老司机就是一个例子。同样的变化可以发生在任何法律部门。未来的人们在作出法律决定时,他们既不需要检索法律,也无须理解法律,更无须权衡行为的合法性,他们所遵循的不过是经由人工智能优化了的微指令而已。

  算法:由谁做主?

  牛津大学哲学和道德学教授 卢恰诺弗洛里迪在给英国《金融时报》撰写的文章中首先介绍:4月26日,英国下议院(House of Commons)科学技术委员会公布了其“决策中的算法”调查收到的回复。它们在长度、内容和角度上各有不同,但都有一个重要信念:就信赖算法作出的决定而言,人类的干预可能是不可避免的,的确,人类干预将是件好事。

  弗洛里迪说,自动化已彻底改变了农业和工业。如今,棕领和蓝领工人是少数。约80%的美国就业岗位在服务业。我们大多数人会在工作中与数据和软件打交道,而不是农作物或重型工具。问题是电脑在对付数据和软件方面得心应手。数字革命正在威胁白领就业。

  这不是因为数字让技术变得智慧,而是因为它让任务变得愚蠢,换句话说,成功执行这些任务不需要智慧。一旦这种情况出现,算法就能介入并取代我们。后果可能是今天的大范围失业,但可能也意味着明日的新就业岗位。例如,欧元区失业率仍高于9%。然而在德国,工程技术人员供不应求。英国也是如此。根据世界银行的数据,到2030年,全球将需要8000万医疗工作者,是2013年的两倍。

  在一个算法和其他自动化过程日益明显的社会里,下议院特别委员会聚焦的重要问题是,我们能够在多大程度上信任这些无脑技术?如今做决定的经常是它们,而不是我们。

  既然白领就业正在被取代,我们都可能沦为算法错误的受害者,比如不公平的责任认定,或者其他一些“卡夫卡”式的由电脑造成的灾难。防范这类失败的最佳方法是让人类智慧重新做主。

  信任取决于任务的完成、透明度和问责制度。例如,如果你的医生在尽心尽力,如果你看得到他们在做什么,如果他们在出现问题时承担责任,那么你就会信任你的医生。算法也是如此。如果它们完成的是应该完成的任务,如果它们在是否完成任务方面是透明的,如果在出现问题时,我们可以追究某人的责任,至少是道德上的责任(如果不是法律责任的话),我们就会信任它们。

  这就是人类要介入的地方。首先,要设计正确的算法,以此降低风险。其次,即便是最好的算法有时也可能出错,或者被导入错误的数据或者以其他方式被不当利用,因此我们需要确保不把所有决策都交给无脑的机器。第三,尽管一些关键决定可能的确过于复杂,人类无力应对,但我们应监督并管理这些决策过程。第四,尽管决定是由算法做出的,但在出现问题时,这不能成为无视只有人类能够提供的洞见和理解的理由。

  简言之,我们需要一个由人类监督的设计、控制、透明度和问责体系。这不需要意味着拒绝数字技术提供的帮助。毕竟,尽管电脑下棋的技能可能超过人类,但人机合作才是无敌的。

  显然,下议院特别委员会调查收到的回复是好消息。它们表明,未来人类将有大量的智慧工作要做。但填补这些新岗位的不是白领员工。只有专家才能应对这种新的数字环境及其人工代理。算法将是新的羊群。我们未来的工作将是做行业的牧羊人。“绿领工人”时代正在到来。

  (完)

  整理、编写、责任编辑:王砚峰

  中国社会科学院经济研究所官网

  http://ie.cass.cn

  http://ie.cssn.cn

  责任编辑:

2017-05-28 17:35  阅读量:38