最新资讯
最新资讯
法国谷歌被罚事件引关注,个人数据保护面临挑战
东莞长安律师获悉
2019年1月22日,法国国家信息技术和自由委员会(CNIL)因谷歌违反欧盟《通用数据保护条例》规定的个人数据保护义务,对谷歌处以“史上最严厉的罚款”5000万欧元。 。谷歌的罚款提醒我们,人工智能技术的不断发展也给个人数据保护带来了挑战。我国学术界也持续关注个人数据保护问题。 2019年5月11日,全国人大监察司法委员会副委员长、中国法学会副会长张苏军在第八届中国公司法律事务年会上表示:“随着5G时代,未来的网络生态架构将是人、机、物融合、万物互联的时代,大数据的安全防护和合法利用的需求将变得更加迫切。”
困境:技术发展对个人数据保护的影响
数据是人工智能的基础,算法是人工智能的本质。人工智能的发展离不开海量个人数据的“喂养”。必须不断收集数据并通过算法进行处理,以维持智能运行。不断增强的数据采集能力、不断提高的信息传输速度、超强的计算能力、数据存储能力正在引领人工智能的快速发展,使人类社会从信息化走向智能时代,也推动着个人数据的保护到一个新的水平。陷入前所未有的困境。
首先,个人数据的获取方式更加隐蔽。随着技术不断进步,搭载传感器和处理器的人工智能产品广泛应用于交通、家居、医疗、公共安全等多个领域。情报的外表隐藏着数据收集的过程。大规模的人工智能应用正在悄悄收集数百万用户的种族、手机号码、位置信息、家庭住址等数据。个人数据始终处于人工智能的“视野”之下,原本隐藏的空间也受到了人工智能的存在的冲击。人工智能的发展打破了人们原有生活的隐私。未来,随着技术的进步,人工智能产品必然会普及到千家万户,而作为人工智能发展基础的数据也将以更加隐形的方式被收集起来。可怕的不仅是个人数据的收集,还有数据收集的匿名性,这让人们几乎没有意识到自己的数据暴露在人工智能之下。
二是分析能力不断增强。数据采集??的匿名性让人们的个人数据面临风险,日益强大的数据识别和分析能力正在将个人数据推向深渊。日益强大的人工智能技术已经具备了分析和预测自然人的工作表现、经济状况、健康状况、兴趣、爱好、可信度等的能力,还可以突破匿名规定,将数据与自然人关联起来。更可怕的是,人工智能技术可以准确分析一个自然人的人脉关系和经济水平。研究表明,算法可以轻松地理解一个人,其程度不仅比同事、朋友和家人更好,甚至可能比自己更好。某种程度上,人工智能技术的发展有能力将现有的数据保护系统简化为“皇帝的新衣”。
第三,个人数据滥用的后果更加严重。在万物互联的人工智能时代,人们独处的时间很少。非法收集和泄露个人数据的风险不断加大,后果也将更加严重。美国曾发生过依靠人工智能系统,利用选民性格弱点推送虚假信息,制造“信息茧”,传播政治理念,向选民推送影响其政治立场的针对性信息进行干预的事件。在选举中。这是一起大规模滥用个人数据、侵犯公民基本权利的重大事件。此外,非法收集和处理个人数据以向用户推送定向广告的情况也并不罕见。用户还被各种骚扰电话、短信所困扰。更可怕的是,涉及种族、宗教信仰、性生活、性取向等敏感个人数据一旦泄露,将会给数据主体带来不可预测的风险。
未来,随着物联网、云计算、大数据、移动互联网等技术的不断创新和升级,智能化、精细化的人工智能应用必然会更加广泛。更加隐蔽的个人数据获取方式、日益强大的识别分析能力、更加严重的泄露后果,使个人数据保护面临更加严峻的挑战。因此,加强人工智能时代个人数据的保护成为当前面临的重大问题。
出路:法律规制和道德引导
第一,重塑同意机制。首先,同意原则应贯穿数据处理的各个环节,每个阶段都需要数据主体的明确同意。其次,应简化同意形式,通知应使用简单明了的语言。同样,所给予的同意可以随时撤回。最后,在处理特殊类型的数据时应施加更严格的同意条件。
其次,扩大数据主体的权利。一是被遗忘的权利。依法赋予数据主体要求彻底删除网页浏览记录、消费记录、运动轨迹等数据的权利,可以防止这些数据被超出收集原始目的的处理和利用,并通过阻止数据传播来保护数据主体的权利。第二,数据可移植权。数据主体应有权向数据控制者请求完整且结构化的个人数据,并将此类数据传输给其他数据控制者。这将促进数据控制者之间的良性竞争,提高行业标准和数据保护水平。第三,反自动化决策力。为了让数据主体对个人数据有更大的控制权和自决权,减少自动化决策可能造成的危害,应该设立反对自动化决策的权利。
三是加强敏感个人数据保护。人工智能时代,应特别关注敏感个人数据的保护。个人医疗健康数据、遗传等生物识别数据、性取向、通讯内容、财产信息等应在法律层面被定义为敏感个人数据。此外,还设置了严格的条件,仅在涉及国家、社会和公共利益时才允许处理此类数据。
第四,加大数据控制者的责任。如今,大多数数据控制者都是互联网公司。大多数企业在盈利目标的驱动下,为了抢占行业先机,很容易忽视个人数据保护问题。未来立法不仅可以通过个人数据纠纷诉讼中的举证责任倒置来倒逼数据控制者加强数据保护,还可以参考GDPR的处罚标准,警示数据控制者守法自律。依法惩处违法违规行为。
第五,制定道德原则并提供正确指导。在道德层面,我们高度关注人工智能系统和产品开发和使用过程中个人数据的保护,提出尊重人权、非歧视、公平、透明、安全、稳定等道德要求等,引导人工智能朝正确方向发展。 ,以便更好地保护个人数据。
人工智能是我们这个时代最具变革性的力量之一。它注定会改变社会结构,必须努力抓住其巨大机遇,促进繁荣和增长。但我们也应该密切关注技术发展衍生的问题,学习国外更先进的保护措施,构建我国人工智能时代数据保护的法律体系和伦理规范。加强个人数据保护并不是要限制人工智能的发展,而是要建立自然人在个人数据处理过程中的保护和个人数据自由流通的规范,让人工智能能够在人工智能上顺利、快速地前进。尊重人权、保护隐私的轨道。走向未来。
(本文为2019年重庆市研究生科研创新项目“个人敏感信息保护系统研究”的阶段性成果())
(作者单位:西南政法大学民商法学院)
长安镇律师?敬请于评论区发表高见,并对本文予以点赞及转发,以助广大读者把握法律与正义的界限。