< 返回文章列表

面对爆炸式发展的AI技术 如何划定法律红线?

  作者:天达共和律师事务所合伙人申晓雨、法务人员康雅斯

  引言

  回顾2020年,人工智能(“AI”)技术无疑是最热的话题之一,关于AI技术的新闻和争论从来没有中断过。国内“人脸识别第一案”一审判决宣判,原告虽然胜诉,但不满一审法院对野生动物世界强制收集个人信息行为的认定结果,提出上诉;清华大学教授对人脸识别技术的过度应用发文表示担忧;一些平台通过大数据算法杀熟……负面消息频出的同时,我们也看到疫情期间无接触体温检测给人们带来安全体验、龙泉寺法师通过自主研发的AI标点技术提高古文研究效率、杭州推广运用“非羁押码”系统让越来越多的非羁押人员开始“附条件”正常工作生活等等诸多令人感叹技术进步推动社会生活、文化和文明发展的正向新闻。

  2020年是AI技术爆发式发展的一年,AI技术的迅猛发展给社会生活、政府监管带来一系列挑战。“野蛮”生长后,这一技术能否趋向于更加平衡的发展之路?我们仅以此文分享本团队近期对AI技术的一些观察和思考,以期抛砖引玉,与诸位共同探讨。

  AI技术的应用与问题

  随着深度学习的发展和海量数据的积累,AI技术在近几年进入高速发展阶段,机器学习、深度学习、自然语言处理、生物特征识别、智能语音等逐渐应用于生活的各个领域,人脸识别、无人驾驶汽车、机器翻译、可穿戴式设备、个性化推荐都是触手可及的AI技术应用。不可否认,从某种角度而言,AI技术是人类社会科技进步的体现,也推动了社会经济的发展。但同时,我们必须看到,由于涉及大量敏感乃至道德伦理问题,AI技术的发展和应用必然会带来各种争议甚至冲突。

  从AI技术发展的当前阶段来看,AI技术应用本身存在的数据和算法模型的安全隐患已成为目前的争议焦点。以相对成熟的人脸识别技术为例(这也是目前应用最为普遍、产生问题也最多的AI技术应用之一),人脸识别技术由于在这次新冠疫情期间被大量应用,今年甚至出现“普及”式的发展趋势,目前出现在日常支付、交通安检、门禁考勤、校园、在线教育、公共安全监管等广泛应用场景中,在促进相关部门管理、企业经营、公民生活的便利性的同时,也带来了个人信息强制收集、过度收集、违法使用等问题:交管部门利用人脸识别技术识别违规者,可以有效减少交通事故的发生,但却将违规者个人信息,甚至未经隐私处理的面部照片展示在公共大屏幕上,对违规者的个人隐私造成侵犯;学校在公共场所安装摄像头,通过“监控”学生行为提高了学生上课打卡的频率和效率,但却未经学生和家长同意,随意收集和使用未成年人的人脸识别信息;售楼处利用人脸识别技术对客户和渠道分类管理,并基于此进行价格歧视,“吓”得客户带头盔看房;公园景点、居民小区以进出便利和安全为由,强制要求必须且只能使用人脸识别核验,而收集到的敏感个人信息如何保存,却无人知晓。除了这类强制收集个人信息、不当使用个人信息的问题外,人脸识别技术的应用过程中,如果对数据存储、共享、传输不当还可能带来大规模数据泄漏:2019年,国内某科技公司就因未对数据库进行密码保护,造成超过250万人的人脸识别信息泄漏。与此同时,算法模型的偏差和隐藏歧视则很可能带来相同平台对不同用户就同一商品、服务提供不同的价格的“大数据杀熟”、信用贷款评估歧视等问题,甚至在国外,我们还看到因为引入智能司法系统导致案例错判这样的极端事件发生。

  AI技术带来的影响

  从上面所举的一些例子已经可以看出,如果对AI技术的不当应用缺乏规制,将会造成诸多现实问题,对公民个人、政府部门、公共机构甚至社会、经济和国家安全都造成一定不利影响,主要体现在以下三个方面:

  其一、公民个人信息权益、隐私权、财产权被侵害,公民安全感下降,带来社会的不稳定性

  其二、公权力、具备社会管理职能的公共机构随意使用AI技术,导致政府和公共机构公信力下降,对营商环境亦造成一定负面影响

  其三、海量数据的安全性会对社会经济安全、社会安全甚至国家安全造成重要影响

  而且,可以看到,AI技术和大数据的发展近些年来很大程度上是以公民让渡了相当的权利为代价获得的,但这样的让渡是在特定的经济发展阶段、特殊的事件背景(如新冠疫情)下的阶段性现象,不能常态化。从长远来看,技术和经济的发展与公民个人权利需要平衡,技术的应用需要有边界、有尺度,公民个人权利的让渡应当有对价、有回报。

  一些思考和建议

  基于以上的观察和分析,我们认为,在鼓励AI技术发展的同时,有必要通过阶段性的规制和引导措施来促进和保障AI技术和社会经济的良性发展:

  首先,在AI技术开发层面,应当设置必要的准入门槛,涉及伦理道德的特殊产品、特殊技术的开发应当有严格标准,什么课题什么人可以做,什么课题任何人都不可以做,需要在国家层面展开论证、划出红线。

  同时,在AI技术应用层面,一方面,政府技术赋能不能脱离依法行政原则。目前,很多法律法规已经无法体现和有效规制最新的科技、经济形态和社会关系,急需更新和发展,唯如此,才能让公权力机构真正有法可依,让具备社会管理职能的机构有法可依。另一方面,在AI技术投入商业化应用前应当进行必要的合法性论证、技术安全性论证、数据安全性论证等评估、论证程序。今年发布的《个人信息保护法(草案)》也专门规定了,个人信息处理者应当就对个人有重大影响的个人信息处理活动在事前进行风险评估。但是,评估主体、评估的内容和流程等具体事项,仍有待进一步研究,特别是,在“放管服”和优化营商环境的政策和趋势下,如何划清行政监管和企业自主管理的边界,如何激发AI技术开发方、应用方主动评估、自主约束的内在驱动力,值得各界探讨和摸索。

  (声明:本文系作者授权新浪网转载,文章仅代表作者观点,不代表新浪网立场。)

< 返回文章列表 关键词: AI 隐私安全 信息安全 人脸识别技术

媒体伙伴