首页 / 文章发布 / 君合法评 / 君合法评详情

人工智能时代:治理模式重塑与法律规制及挑战

2020.04.22 张红斌 余达星 曾洁

一、 人工智能发展概述


近年来,我国倡导的“让城市更聪明更智慧”的理念,引领着越来越多智慧型城市的规划和建设1。更懂你的语音助手,更精准的天气预报,机场火车站的人脸识别系统,都深刻影响着每个人的日常生活。在这其中,人工智能(以下简称“人工智能”或“AI”)的技术创新和发展扮演了重要角色,被认为是引领第四次科技革命的核心驱动力2


根据德勤在2019年9月发布的《全球人工智能发展白皮书》3,以北京和上海为代表的一线城市在人才和企业数量、资本和科研能力上长期处于第一梯队,两大城市的人工智能企业数量已超过600家。北京拥有众多顶尖院校和科研机构,人才集聚效应使其汇集了中国43%的AI初创企业和国内外科技巨头的AI研究中心。上海为AI的创新孵化提供了优越的投资和融合环境,已经与众多国内外科技巨头、人工智能独角兽建立了企业实验室。而深圳凭借在硬件制造领域积累的丰富经验,也成为一部分AI领军企业的根据地。同时,德勤在白皮书中还提到,这些对AI进行史无前例的研发和投入的国外科技公司为AI科学家提供近30万美元的平均年薪,对AI人才具有极强的聚集和吸引力。KPMG在19年发布报告称AI成熟企业内部平均约有375名员工在从事AI相关领域的工作4,这样的企业在AI人才上的花费超过7000万美元。


从人工智能的发展历史来看,它并不是一个新兴学科,最早可以追溯到20世纪50年代。但恰恰是在计算机和信息技术引发的第三次工业革命之后,大数据发展带来的数据整合,云计算和硬件更新带来的算力提升,以及算法的创新都大大激发了现代人工智能的潜力。一些国内外的顶尖科技企业都将AI作为企业指导方针和着重研究方向,AI技术在金融、医疗、教育、零售、物流、制造、安防等领域的技术落地拓宽了AI的发展前景,展现了AI的生命力和影响力。也正是深刻意识到人工智能对社会、经济、政治等各方面的重大影响,我国政府对人工智能的发展高度重视,在顶层设计方面对人工智能进行了战略定位。2018年12月召开的中央经济工作会议将人工智能定义为“新型基础设施建设”之一,此后的政府工作报告、中共中央政治局常委会等高层会议上多次强调要加快发展人工智能等新型基础设施建设进度。可以说,人工智能的重要性不言而喻。


另一方面,AI技术的飞速发展激起了社会舆论对于AI可能引发的失业问题、隐私保护等问题的思考,以及伦理道德和相关法律法规跟进等方面的考量。对此至关重要的是政府监管机构对于AI发展的政策规划和引导,加上企业及合作伙伴自觉制定并恪守AI准则,进而合理评估、减弱和解决AI带来的问题。


二、 人工智能应用的伦理、政策与监管


一项超前的技术发展常常为现行法律制度带来挑战。由于法律的制定往往具有滞后性,现行的法律一般而言难以对新的技术进行全面的规范与监管。而新技术的野蛮发展可能对法律与社会伦理造成冲击,因此需要相关法律政策的监管与调整。人工智能技术的发展同样存在这一问题。随着AI技术的发展以及在金融、教育、医疗、安防等领域的应用,引发公众对于隐私权、歧视偏见、产业转型、责任分担角度的讨论。基于AI技术的黑色产业发展同样引人关注,例如前段时间大量佩戴口罩的人脸图像被贩卖5


目前我国暂未制定单独的法律对于人工智能进行监管,但已参考国外的实践发布人工智能的治理原则,为人工智能的发展提供了准绳与指引。2019年6月17日,我国科技部国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能发展应当遵循的八项原则。我们建议AI产业的上下游企业应当在AI技术研发、应用、使用的过程中注意遵循该等原则。


1. 和谐友好


从根本而言,人工智能的发展应是为了增进人类的共同福祉作为目标,符合人类的价值观和伦理道德,保障社会安全、尊重人类权益。


例如,基于图像识别技术的发展,政府部门及企业逐渐将AI技术运用于安保层面。通过公共场所设置的摄像头所拍摄的人脸,基于算法识别身份,从而实现追踪、抓捕犯罪人员的目的,保障社会安全。


2. 公平公正


人工智能发展应促进公平公正,促进机会均等。通过持续提高技术水平、改善管理方式,在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。


在AI技术的设计、应用的过程中,极容易产生偏见与歧视的情形。人工智能的算法训练需要现有的大量的数据输入。在AI学习的数据来源本身即存在限制的情况下将很可能导致歧视的产生。在人工智能应用最广泛的图片识别领域,女性和做家务、厨房等场景联系在一起,常常有男性因此被AI认成女性。AI翻译时,医生被默认是男性。在广告投放中,某知名企业给男性推送年薪20万美元职位的招聘广告的概率是女性的6倍6。此时,人为有意识地修正AI技术中涉及以及可能产生的歧视结果是必要的,否则将进一步加重歧视造成的影响。


3. 包容共享


人工智能应促进绿色发展;促进协调发展,推动各行各业转型升级,缩小区域差距;应促进包容发展,加强人工智能教育及科普,提升弱势群体适应性;应促进共享发展,鼓励开放有序竞争。


每一次的重大的技术革命,除了带来技术发展,也将带来就业方式的变化。AI将会导致大量可重复、程序化的工作由机器取代。同时创造大量的为AI产业服务的工作职位,比如算法技术研发以及数据筛选验证。此时包容共享原则所提倡的技术共享及科普教育显得尤为重要。


4. 尊重隐私


人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。在个人信息的各环节建立规范。

AI技术的基础是数据。回到上文所举例的人像识别。人像识别的基础是通过大量的人脸图像训练算法。AI公司在获取个人数据时,应当充分确保取得个人主体的知情权与选择权。对于个人信息及隐私的保护问题,我们将在下文第五部分进一步讨论。


5. 安全可控


人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖。高度关注人工智能系统的安全,提高人工智能鲁棒性及抗干扰性,形成人工智能安全评估和管控能力。安全可控是使得AI技术可监管、可控制的前提。


6. 共担责任


人工智能研发者、使用者及其他相关方应具有社会责任感和自律意识,遵守法律法规、伦理道德和标准规范。建立人工智能问责机制,明确研发者、使用者和受用者等的责任。人工智能应用过程中应确保人类知情权,告知可能产生的风险和影响。防范利用人工智能进行非法活动。


所有技术具有天然的技术中立性,AI技术也不例外。但是在AI技术的设计、应用以及使用过程中,不同的开发方式、使用方式将导致AI技术的应用带来不同的结果。相关法律应提供基本的行为准绳以约束研发者、使用者研发、使用AI技术的行为。


7. 开放协作


鼓励交流合作,推动各方在人工智能发展与治理中的协调互动。开展国际对话与合作,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。


8. 敏捷治理


尊重人工智能发展规律,在推动人工智能发展的同时,及时发现和解决可能引发的风险。不断提升智能化技术手段,优化管理机制,完善治理体系,推动治理原则贯穿人工智能产品和服务的全生命周期。对未来更高级人工智能的潜在风险持续开展研究和预判。


科技部制定的上述原则在很大程度上体现了与国际接轨的标准。美国电气电子工程师协会(IEEE)所倡议的《人工智能设计的伦理准则》中规定的人权、福祉、问责、透明、慎用在上述原则中均有所对应。这也为国内研发设计的AI技术产品走向国际市场打下了政策伦理层面的良好基础。


三、 人工智能应用中的知识产权问题


曾几何时,吟诗作画是人类独有的能力,特别是对文人雅客而言,精通琴棋书画似乎是理所当然的事情。但是,随着人工智能的深入发展和广泛应用,这一人类的“垄断”行为正逐渐被打破。人工智能“小冰”可以创作诗歌,人工智能DeepDream可以生成绘画,机器人AlphaGo可以下围棋并且击败人类职业围棋选手,机器人DreamWriter可以根据算法自动生成新闻稿件并推送客户,还有的机器人可以写小说、谱曲。并且,人工智能生成的此类“诗歌”、“绘画”、“小说”等生成物在内容、形态,甚至表达方式等方面日趋接近自然人所创作的作品,甚至在形式上难以简单区分。


由此,在理论和司法实践上随之产生一系列具有非常争议性的法律问题特别是知识产权法律问题,即人工智能生成物是否构成著作权法意义上的“作品”,谁是权利主体,以及侵权责任如何承担等。


北京互联网法院在(2018)京0491民初239号案件一审判决书中指出:具备独创性并非构成作品的充分条件,自然人创作完成仍应是著作权法上作品的必要条件,判决认定涉案人工智能生成的分析报告不属于作品。而在广东省深圳市南山区人民法院于今年年初作出的一审判决中认定:智能写作辅助系统DreamWriter生成的财经报道文章具有独创性,构成著作权法意义上的作品。


著作权法的立法目的是为了保护文学、艺术和科学作品作者的著作权以及与著作权有关的权益;著作权法所称作品,是指文学、艺术和科学领域内,具有独创性并能以某种有形形式复制的智力成果。简而言之,著作权法保护的是作者的著作权。在著作权法上,作者通常仅指自然人。虽然法人在特定条件下被视为作者,享有法人作品的完整著作权。但是,法人在民法上本来属于民事主体之一,其被拟制具有法人格,并通过其内部意思机关对外进行意思表示。即使是法人作品,其创作主体仍为自然人,著作权法仅为了利益平衡,在法人作品的著作权主体和权利归属上赋予法人与作者(自然人)类似的地位。“要承认人工智能是作者,事实上也就意味着要在著作权法上创设一种新的独立法律主体,这将遇到极大的法律和伦理障碍,在相当长的一段时间内恐怕都难以实现。”7因此,对于人工智能生成物而言,如果能否在现有知识产权法律或者民事法律体系范畴内加以应对,则似乎并无特别必要创设新的权利主体。


从人工智能的设计开发到人工智能生成物的产生过程,将会涉及研发者和使用者。


就研发者而言,其研发或设计的人工智能全部或作为其主要组成部分的程序,如果符合授予专利的条件,则可以授予专利权。不仅人工智能本身,甚至是利用人工智能拟实现的商业方法也可能作为方法专利而受到专利法的保护。另一方面,人工智能系统通常体现为计算机软件的形式,因此可以作为著作权法上的计算机软件作品而享有相应的著作权。但是,研发者并没有直接参与人工智能生成物的产生过程,人工智能生成物也没有传递开发者的思想、感情的独创性表达。因此,研发者并不是人工智能生成物的创作者。


就使用者而言,如果其仅仅是将人工智能作为其创作的辅助助手,使用者对创作完成的“作品”具有实质性的主导作用,该“作品”构成使用者的思想、感情的独创性表达,则使用者自然可以作为作者享有该“作品”的著作权。但是,如果使用者仅仅是提交了关键词进行搜索,或者发出简单指令,人工智能生成物并未传递使用者的思想、感情的独创性表达,此时不应认定由使用者创作完成。在判断什么情形下人工智能作为人类创作的辅助助手使用,可能容易产生争议。对此,日本国文化厅的观点值得我们参考和借鉴。在日本文化厅著作权审议会第9小委员会报告书(1993年11月)中论述了如下意见8:就利用计算机系统创作的计算机创作物而言,如果具有人类进行的“创作意图”以及在创作过程中为获得具体的结果的“创作性贡献”,则可以认为其为以计算机为工具进行创作而产生的内容,从而肯定其具有“作品性”。


因此,我们倾向于认为:人工智能系统/软件自动生成内容过程中,研发者(所有者)和使用者的行为并非法律意义上的创作行为,相关内容并未传递两者的独创性表达,因此两者均不应成为人工智能生成物的作者;该生成物系人工智能自动生成,并非自然人创作,即使具备著作权法项下作品的形式特点甚至独创性要求,也不能构成作品,并不具备著作权。


虽然人工智能生成物不构成作品,但并不意味着任何人可以自由使用。著作权法不适合保护人工智能生成物,并不代表不能通过反不正当竞争法、商业秘密、数据财产等相关法律法规进行对人工智能生成物进行某种程度的保护和规范。北京互联网法院在上述案件的判决书中认为:为了激励软件使用者的使用和传播行为,软件使用者可采用合理方式,在人工智能软件自动生成的内容上表明其享有相关权益。


另一方面,人工智能离不开“深度学习”、“机器学习”。人工智能必须接收海量的数据和信息,进行“深度学习”。“本质上来说,深度学习的算法使用了大量来自特定领域的数据,为想要的结果做出最佳决策。其方法是让系统是这些输入的数据,训练自己识别数据和期望结果之间的关联性。”9《民法总则》第123条将商业秘密作为知识产权的保护对象,并且商业秘密在《反不正当竞争法》下受到保护。10“《民法总则》第127条对数据的保护规则作出了规定。数据在性质上属于新型的财产权。” 人工智能在“机器学习”过程中如果使用不当,其所使用的数据和信息则有可能侵犯第三人的商业秘密和数据财产权。并且,在这一过程中,人工智能也需要使用大量现有作品。这些作品大多数仍然处于著作权保护期。这种“机器学习”过程中的商业性使用,是否可以作为“合理使用”进行抗辩抑或构成著作权侵权行为,存在很大的争议。此外,经过“机器学习”、“深度学习”阶段,人工智能自动生成的内容如果包括第三方作品的全部或部分,两者构成实质性类似,则有可能构成剽窃,从而发生知识产权侵权以及责任承担问题。


四、 人工智能应用中的民事与刑事责任


人工智能的发展在技术层面上不断突破,在数据规模上与日俱增,在应用场景上越来越广阔,但仍然可以清楚地看到其发展的局限性,当前的人工智能在智慧的层面上并无法达到以至于超越人类的水平,很多在电影中出现的人工智能场景也基本只存在于荧屏上和创作中。当代的人工智能已经对民事和刑事责任认定带来一定程度上的冲击和挑战,未来的人工智能更有可能对此引发激烈讨论。


从广义上一般认为有两种人工智能,只处理特定事务的半自动的弱人工智能,和拥有与人类智慧相媲美的完全自动的强人工智能。现有的人工智能通过分析海量数据,发现潜在的规律和联系,进而完成某项人类规定的任务,我们可以称其为弱人工智能。具体体现在,翻译软件能即时准确地翻译各种人类语言,机器人能分拣和运送快递,自动领航员(例如Auto Pilot)辅助人类驾驶。相反,强人工智能将从意识、感知等多方面具备人类水平或一般智慧,强人工智能的大脑将能抽象推理和独立思考,甚至可以讨论哲学在内的任意话题。


这两种人工智能在本质上有所差别,因此我们从弱人工智能和强人工智能两种发展情形展开,试图在责任主体分配、责任界限划分、责任风险承担等多方面对人工智能在民事和刑事责任中扮演的角色以及产生的影响进行探讨。


1. 弱人工智能与民事责任


弱人工智能给人类带来便利的同时,也可能产生民事纠纷。比如人工智能翻译的文本不符合原意导致诉讼失败,送货机器人偏离预定路线导致无法在规定时间内送达,自动驾驶系统突发故障导致车祸等,这些弱人工智能的应用场景适合在中国现行的产品责任制度中讨论,适用的法律包括《产品质量法》、《侵权责任法》和《消费者权益保护法》。


弱人工智能本身可被认定为工业产品或产物,是人类在生产活动过程中制造出来的,用于辅助人类生产或生活。《产品质量法》中对因产品存在缺陷造成人身损害或他人财产的损害的赔偿有明确规定。受害人可以向产品的生产者或销售者要求赔偿,如就本应属于产品的生产者或销售者其中一方的责任,另一方赔偿的,则有权就已经发生的赔偿向责任方进行追偿。


作为制造类产品的弱人工智能存在生产者和销售者,进而还有使用者。依据现有法律,产品责任为无过错责任,因此只要产品存在缺陷,生产者就应当承担侵权责任,被侵权人无须证明生产者存在过错及过错与损害结果的因果关系。自动驾驶技术是当前弱人工智能很好的体现,所谓的无人车仍然需要坐在驾驶位的人类驾驶员辅助,需要由后台的工程师监督并做出必要调整。当自动驾驶汽车在有驾驶员控制的情况下发生交通事故,导致人身和财产损害的,适用民法的责任分配,民事责任的主体仍为汽车的驾驶员,这与当前生活中发生的交通事故涉及的民事问题几乎没有差异。如果驾驶员能证明其尽到了辅助义务,造成事故的原因是该汽车或系统的设计缺陷或制造缺陷,那么驾驶员可以向缺陷产品的制造商主张产品缺陷责任,生产者、销售者需要为产品设计缺陷承担主体责任。除非产品生产者能证明产品进入流通环节时的科学技术水平尚不能发现缺陷的存在或其他免责事项的,否则生产者将承担赔偿责任。同样的,在确定人工智能本身无法作为责任主体,而民事责任的性质是人类时,就能够说明人工智能翻译系统相关的民事责任仍然归于制造其系统的生产者,而送货机器人背后的制造商和快递公司应该承担其无法按设定工作导致的民事赔偿责任。


2. 弱人工智能与刑事责任


当作为智慧工具载体的人工智能产品,造成刑事犯罪时,其刑事责任问题主要表现在以下几个方面。


包括生产者、销售者或使用者在内的任何人故意利用弱人工智能产品实施犯罪,则刑事责任应由行为人承担,如存在多方共同实施犯罪的,则可参考共同犯罪由该多方共同承担刑事责任。例如涉及交通肇事罪或危险驾驶罪的,刑事责任主体仍然为驾驶员。如果生产者因疏忽大意并未预料到弱人工智能产品缺陷可能带来的刑事问题,则违反了预见义务,则可参考一般过失犯罪,对生产者的过失定责。当前的弱人工智能仍然被视为产品或工具,因此承担刑事责任的主体一般仍为自然人。但当生产者、销售者能够证明在人工智能产品上市时,技术本身的局限性根本无法预料以至于避免其可能带来的危害,这种情况就比较复杂。既有学者认为可以参考监督过失犯罪认定生产者、销售者或使用者的责任,也有学者认为刑法则遵循罪、责、刑相适应原则,一味追究将技术无法预见的责任强加于人类,有可能阻碍弱人工智能的进一步创新发展11


弱人工智能从根本上看是数据挖掘、超强运算、模式识别等众多技术成果的应用融合。这种机器学习可以理解为通过模拟人类大脑去发现事物的一般准则,学习隐含的模式、规律和关联性,并非机器真正读懂了人类的语言,学会了大脑的思考。因此,现行法律法规对于弱人工智能有可能带来的民事与刑事责任判定上仍有指导意义和参考价值。


3. 强人工智能的民事与刑事责任


霍金认为,人工智能的发展是伟大的进步,但如果无限制发展下去,机器拥有了生存的意识,可能导致人类的毁灭12。目前我们无法知道强人工智能到底能够有多么强大的能力和意识,但可以从与弱人工智能的对比中分析强人工智能的民事责任。


从弱人工智能发展相对成熟的自动驾驶和医疗领域入手具有一定的现实意义。以无人车、自动驾驶产业为例,现实生活中,一些城市中已经可以看到没有驾驶员(但仍有安全员)的自动行驶的汽车和卡车。目前的自动驾驶分级标准认为,L2-L3等级代表局部的有条件的自动驾驶,可以归为是弱人工智能;而L4-L5等级代表完全自主的脱离人控制的自动驾驶,可以看作是接近于强人工智能。当发展到L4-L5的强人工智能阶段,可能已经没有驾驶员的概念。车内只有乘客,即使用者,那么此时如果发生了交通意外,车辆本身无法承担侵权责任(如完成赔偿损失或赔礼道歉等行为)。此时很可能会由生产者(设计者)及/或销售者承担民事责任。类似的,医疗领域未来由强人工智能全方位参与分析、诊断、治疗和康复过程,人类将很少干预。虽然成效有可能大大提升,但生产者和销售者仍需为可能出现医疗事故负有民事责任。


刑事责任方面,当自动驾驶汽车在强人工智能时代发生交通事故之后的责任划分认定目前仍然存在疑问。一方面自动驾驶汽车和系统无法被认定为构成交通肇事罪主体,也无法实质上受到刑事处罚;另一方面,关于设计者、生产者、销售者和使用者是否尽到了作为义务,由于现代科技的发展水平对算法及结果的认知仍存在“黑箱”,无法穷尽其所有可能性,如果要求设计者或生产者等主体承担刑事责任,要想厘清其是否对不法侵害的发生,采取了可以避免或提前预见的措施以及算法和造成损害之间的直接因果关系仍有很大困难13。强人工智能与自然人主体存在差别,其是否具有意志自由,是否有可以判断的客观标准,在现有的刑罚体系下还没有实质性内容可供参考。


五、 人工智能与数据保护、网络安全


有人认为,人工智能技术的元年是2016年。2016年AlphaGo以4:1的成绩,在与世界顶级围棋选手李世石的围棋对决中,取得了压倒性的胜利。此时,人工智能技术的超强学习能力正式在世人面前亮相。而这样的学习能力在绝大多数AI技术场景下,是由大量的数据作为基础训练出来的成果。因此,对于AI技术开发者而言,数据的获取至关重要。而对该等数据进行合法合规的获取与使用以及在此基础上进一步产生的数据与信息,则需要由数据保护以及网络安全作为支持。


1. 人工智能与数据保护


随着欧盟《一般数据保护条例》(GDPR)的出台,2016年同样可以视作个人信息保护话题正式开启的元年。我国也于2016年出台了网络安全法,首次从法律层面规定了政府对于网络运营者收集、使用个人信息的要求以及相应的行政处罚措施。2017年,我国网络安全法正式实施,同年我国颁布了《个人信息安全规范》,为信息控制者收集、使用、共享、转让个人信息以及数据安全保护问题提供了详细的指引。紧接着2019年,网信办、工信部开展了多项整治工作以图规范APP涉及的个人信息使用收集、保护的问题。


从数据获取角度,很多AI开发企业由于无法获得足够充足的数据资源,往往通过购买的方式向数据供应商取得。但是通过购买方式取得的数据往往极难保障数据的主体已对该等数据的收集与使用行为明知并作出授权同意。在现阶段,我国已经存在了相关黑色产业,包括非法获取他人人像等个人信息用以出售。例如在新冠疫情期间,大量的个人佩戴口罩的照片被非法打包销售用于人像识别技术的研发,这为个人隐私以及信息安全带来了极大的挑战。AI企业如何能够在确保符合个人信息安全法规的同时,获得足够、充分的数据进行技术开发,这也是现行法律体系值得思考的一个问题。


我国的个人信息保护相关法律法规已经明确,收集、使用、共享个人信息的行为均应当取得对应主体的充分同意。在个人主体清楚地知悉其自己的信息是如何被收集、使用的情况下,对此作出同意,是相关企业使用个人信息的前提。然而在实践中,个人信息主体的知情权以及选择权往往难以实现,众多个人信息在相关个人信息主体不知情的情况下被贩卖、使用。在目前的个人信息法律法规的基础之上,如何加强执法,确保法律的强制性力是接下来需要进一步关注的问题。


2. 人工智能与网络安全


作为AI技术的核心基础的数据,如发生泄露或未授权篡改则可能直接导致训练出不符合设计需求的产品。因此,网络安全是AI技术所需要建立的另一维度的保护屏障。无论是对于AI技术研发企业在研发过程中涉及的数据,还是对于采购AI产品的企业在使用AI产品过程中进一步收集的数据,相关企业均需要依托网络安全手段来保障相关数据的安全。例如,在自动驾驶车辆行使过程中,如发生黑客入侵,则可能引发重大的驾驶安全问题。


对此,我国的《网络安全法》及相关配套措施在网络安全层面为企业提供了指引。从企业治理角度,AI企业应注意建立内部安全管理制度和操作规程,通过明确的制度与规程为企业员工提供安全保护的操作指引。从内部监管层面,企业应确定网络安全负责人,负责监督并落实企业内部相关员工应当承担的网络安全保护责任。在收集及应用相关数据用于开发或实施AI技术时,企业应当注意加强技术措施,防范计算机病毒和网络攻击、网络入侵等行为,相关数据被黑客攻击、滥用,甚至被篡改的风险。例如,AI技术研发企业可利用应用模型安全测评、防御解决方案,进行AI研发产品的漏洞检测与修复。此外,在数据传输的过程中应当注意加密措施的应用,避免在传输的过程中发生泄露。


六、 人工智能与劳动雇佣


人工智能的发展对雇佣关系存在着巨大挑战和冲击,给劳动市场增加了很多不确定性。机器人作为人工智能技术的产物,正在取代一部分重复性高的标准化工作。这种生产效率上的提升未来很有可能降低劳动密集型产业对员工的大量需求,引发了机器取代人的担忧。


传统的加工制造业是劳动密集型产业的代表,一方面雇佣了人数众多的掌握简单基础技能的工人,另一方面不断寻求扩大生产规模提高生产效率。随着自动化机器设备的推广及应用,原本大量的岗位逐渐被机器替代,意味着基础岗位工作面临大面积消失,一些无法转岗的员工暴露在失业的风险中14。相当数量员工的劳动关系终止将会给就业市场增加巨大负担。如果能够提前做好为相关产业员工的再就业培训工作,在一定程度上降低发生集体劳资纠纷的可能,将有利于人工智能时代就业市场平稳过渡。


除了简单机械重复的岗位以外,人身依附关系较强的岗位也可能在人工智能的发展浪潮中逐渐被替代。比如司机可能被自动驾驶汽车代替,消防员被消防机器人代替,商场的导购员被商家的实时试衣app代替。甚至一些专业性岗位也面临被抢走饭碗的压力,如金融分析师、投资顾问等都可能无法比人工智能系统提出更专业的参考意见。


虽然基础重复性岗位需求可能下降,但人工智能也将为很多不同领域的企业带来劳动关系上的改进。在人力资源招聘方面,人工智能技术的引入,对招聘这一人才发现的流程产生众多积极影响15。首先,人工智能招聘主管为新员工的聘用提供更多专业化、前瞻性的指导和分析。其次,人工智能可以全方位考虑已知数据点,在不易错过有效细节的前提下,高效地筛选简历、分析数据、智能匹配。同时,利用人工智能系统对各个感兴趣的项目设置好符合企业文化的权重,企业将能够最大限度的聚集人才,激发团体的工作潜力。同样的,在医疗系统中,应用人工智能技术可以准确快速分析病情、影像等资料,使得医务工作者能够将精力放在更需要其专业技能的地方,大大降低医疗事故发生的可能性。


人工智能作为一个产业本身,其技术迅猛发展使得激烈的AI人才争夺战在所难免,专业AI人才在招聘市场中呈现供求不平衡的局面。而智力密集型产业的核心在于吸引掌握尖端科技和领先技术的人才,由此可能引发更多的竞业限制相关的法律纠纷。我们在概述中谈到,这一新兴领域的劳动者整体薪资水平和发展前景都超过其他行业,行业里的劳动争议多与竞业禁止、股票期权和高额培训费用等事宜相关,纠纷金额也相对较高。人工智能企业即使已建立了以保密协议、知识产权协议和竞业禁止协议为内容的重点保护体系,一旦出现相关纠纷,也可能因为耗时费力加之核心技术人员流失而给企业带来重大损失。


人工智能给劳动雇佣关系带来的影响是持续性发展的,存在不少未知的超前的问题值得思考。随着人工智能产业的发展,我们不排除未来人工智能作为有智慧的个体出现。其劳动者身份认定、劳动者权益保护、权利与义务划分等问题是比较难界定的。人工智能在劳动过程中会产生发明和创造,有可能发生在与人类劳动者合作的过程中,有可能是人工智能独立开展和发现的。现有的职务发明制度尚未对这一现象进行规制,而未来人工智能能否作为发明人、职务发明的专利权和署名权的归属等问题尚待探讨。


七、 结束语


时代在变化,技术在进步,人工智能正在改变我们的生活和社会。特别是,在“新基建”的政策背景推动下,人工智能作为“新基建”的重要组成部分,将会得到极大的发展和广泛的应用。可以说我们正在逐步进入人工智能社会。


人工智能不仅在改变每个人的生活和人际关系,也在改变企业的发展模式和核心竞争力从而影响企业的治理能力及结构,并进一步地影响甚至重塑政府治理社会的模式和行为,并对国际关系和地位产生深远影响。人工智能在重塑人们的行为模式与企业、社会和政府的治理模式的同时,也对伦理、政策、法律规制与监管等方面提出了一系列挑战。如何应对人工智能时代带来的各种挑战,将会是一项需要认真研究和讨论的课题。


1.让城市更聪明更智慧,新华网,http://www.xinhuanet.com/2020-04/04/c_1125814356.htm

2.兴证王涵:第四次科技革命是机遇还是挑战? https://finance.ifeng.com/c/7owir7whJkl

3.德勤《全球人工智能发展白皮书》,https://www2.deloitte.com/content/dam/Deloitte/cn/Documents/technology-media-telecommunications/deloitte-cn-tmt-ai-report-zh-190919.pdf

4.KPMG《8 AI Trends Transforming the Enterprise》https://advisory.kpmg.us/content/dam/advisory/en/pdfs/2019/8-ai-trends-transforming-the-enterprise.pdf

5.新浪科技, https://tech.sina.com.cn/i/2020-03-27/doc-iimxxsth2110207.shtml。

6.中国经济网,https://baijiahao.baidu.com/s?id=1634830858766276915&wfr=spider&for=pc。

7.万勇:“人工智能‘作品’,著作权谁属”,载《光明日报》( 2019年05月12日 07版)

8.福岡真之介:『AIの法律と論点』(商事法務、2018)113頁

9.李开复:《AI・未来》,浙江人民出版社2018年9月第1版,第21页

10.王利明:“人工智能指代提出的法学新课题”,载《中国法律评论》(2018年第2期卷首语)

11.强弱人工智能下的刑事责任主体探究,http://www.xielwb.com/xflw/99100.html

12.霍金:人工智能的进步可能引发灾难导致人类灭绝,http://www.xinhuanet.com/world/2016-01/21/c_128650242.htm

13.人工智能可否成为刑事责任主体,https://www.spp.gov.cn/spp/llyj/201804/t20180419_374962.shtml

14.人类会被人工智能打败吗?https://tech.sina.cn/csj/2019-09-02/doc-iicezzrq2786252.d.html?oid=140&vt=4&cid=38712

15.劳动法遭遇人工智能:挑战与因应,http://pkulaw.cn/fulltext_form.aspx?Db=qikan&Gid=94c299e20f85facdf45de130716c8d3cbdfb&EncodingName=

君合是两大国际律师协作组织Lex MundiMultilaw中唯一的中国律师事务所成员,同时还与亚欧主要国家最优秀的一些律师事务所建立Best Friends协作伙伴关系。通过这些协作组织和伙伴,我们的优质服务得以延伸至几乎世界每一个角落。
北京绿化基金会与君合共同发起的“北京绿化基金会碳中和专项基金”,是中国律师行业参与发起设立的第一支碳中和专项基金。旨在充分利用公开募捐平台优势,积极联合社会力量,宣传碳中和理念,鼓励和动员社会单位和个人参与“增汇减排”、“植树造林”等公益活动。