人工智能视域下的信息规制

2022-03-22 09:33:19 | 浏览次数:

【摘要】人工智能与互联网、大数据的加速融合诱发新型社会风险,提出了信息规制的新诉求。总结信息规制的相对性、公共性特征,反思信息自决机制,应当基于利益平衡的立场,适恰地处理信息领域个人利益与公共利益的紧张关系。隐私场景理论为处理这种紧张关系提供了进路,强调信息的适当流通,建构了信息规范的四项参数,反对信息类型的二分法,提供了特定场景中“适当”的分析工具。激励与规范的视域下,应当从基于使用场景与敏感程度的同意规则,差异化应用场景,以及法律、标准、协议、代码的规范体系,技术自我规制四方面探索场景理论的应用。

【关键词】人工智能  信息规制  隐私场景理论  利益平衡

【中图分类号】A811                              【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2019.06.008

问题的提出:智能科技革命诱发的新型风险与规制诉求

基于James Andrew Bates案的风险考量。James Andrew Bates因一起发生在其家中的一级谋杀罪案件被指控,美国阿肯色州本顿维尔警方持许可令对其家中进行搜查,发现包括亚马逊Echo在内的智能设备,并要求亚马逊公司提供该智能设备在案发当晚录下且保存在云端服务器的音频资料。亚马逊最初以涉及用户隐私为由拒绝,在贝茨同意后才予以提供。贝茨案中,亚马逊公司的处理方式与苹果公司拒绝联邦调查局解锁犯罪嫌疑人赛义德·法鲁克的苹果手机极为相似,但又存在区别于后者的新问题:智能设备无时无刻不在记录并存储着用户信息(除了Echo之外,警方还通过smart meter发现在被害人死亡的时间有大量的水被使用),这种信息收集区别于以往的电子通讯工具、互联网社交平台,因为智能家居设备的功能不是社会交互,该应用场景中的用户对“户”具有合理的隐私价值预期,具有更强的自治性,而这种价值预期为正当法律程序所回应。贝茨案听证阶段提出,法院有责任确保提供的信息能够有针对性地适用于该案的具体情况,也将为未来刑事司法程序中如何处理此类信息创造先例。智能家居设备时刻向云端传送用户数据,可供处理、分析和利用,形成“个人的量化身份”。贝茨案涉及个人信息、数据控制方与刑事司法之间的关系处理,这些争议在我国同样存在,其实质是技术发展诱发的新型关系处理。

科学技术的高度发展既是风险社会的特征,也是风险社会的成因。彼得·休伯(Peter Huber)在贝克风险理论的基础上,将风险区分为“私人风险”(private risk)和“公共风险”(public risk)[1]。巨量级数据的出现、计算能力的增强、理论算法的革新共同促成了第三次人工智能浪潮的兴起,包括机器学习、生物特征识别、虚拟现实/增强现实等关键技术,借助信息数据的获取、流动与使用发挥作用。人工智能与互联网、大数据的加速融合正在全面地改变国家-社会的基本结构、社会主体的行为与决策方式、政府监管模式及其所附带的政策体系,被称为“技术统治”和“新的政治空间”[2],人类正在进入“一切皆可计算”的时代。与此同时,智能科技革命也诱发了信息与隐私领域的新型社会风险。贝茨案仅仅展现出人工智能视域下信息规制争点的一隅,信息及隐私领域的争点已不仅仅存在于前述公权力介入的场景。机器学习可以识别图像或视频中隐藏的信息,例如,商场研发面部识别系统识别顾客情绪,神经网络算法通过面部识别来判断人的性取向……利用人工智能进行的信息监测与分析可能引发数字、物理、政治安全风险,如自动化监测(如分析大量收集的数据)、说服、欺骗,会扩大与侵犯隐私和操纵社交相关的威胁[3]。与此同时,人工智能技术的恶意使用会带来新型公共安全风险,例如公安部督办的“2017·01·03”侵犯公民个人信息、提供非法侵入计算机信息系统工具案。技术发展伴随着现有风险的扩张、新型风险的产生、典型风险的特征变化,提出了新的规制诉求。

信息领域个人利益与公共利益的紧张关系。首先,信息主体对信息控制力的减弱。人工智能的本质在于数据处理系统的输入与输出关系,其核心是基于超强的算力与学习能力,对个人信息的分析、使用与处理加剧了信息保护与数据利用的冲突,从根本上消解了信息的主观管理能力。人工智能算法日益广泛地渗透到用户画像、事件抓取、信息个性化推送等领域,让渡部分信息,才能享受智能化服务,信息主体或主动或被动地成为“透明人”。人像识别技术应用场景中,相对人姓名、性别、年龄、职业,甚至不同情境下的情绪、行为、轨迹等大量关联信息,都被收集、处理与使用,宽泛的授权协议减损了“知情同意”规范的效力。而广泛的应用场景衍生出更多行为异化。例如Facebook数据泄露事件中,用户授权登陆帐户后的“点赞”“好友”等信息被用于“学术研究目的”,剑桥分析公司甚至出于政治目的利用了用户数据,Facebook还承认用户的公开数据可能被非法抓取,通过反向搜索非法获取了用户的个人数据。

其次,巨量级数据深度分析引发的争议。当信息数据的社会价值和经济价值逐步得到认同,监管规则与措施的滞后在一定程度上导致了数据安全和隐私保护领域的风险。利用人工智能技术进行信息收集、处理、使用,容易推导出公民更多的隐私。这主要涉及如下亟需解决的问题:其一,数据所有权、数据交易规则等数据行为基本秩序仍未明确;其二,数据处理与使用的信息不对称,随着数据的爆炸式增长和云计算能力的指数级进步,信息主体深陷“黑箱”,无法充分知晓个人信息在何时、何种场景下被收集、分析、使用、处理;其三,平衡数据使用方、数据控制方及数据主体的三方利益。作为现代社会的主要治道,如何设置与调整“激励”与“规制”科技发展的法律價值目标?如何预测、预防和缓解技术发展与应用带来的隐私、安全风险?如何建构与设计法律规范体系?其实质在于如何处理技术发展与应用中的个人利益与公共利益的紧张关系。

推荐访问: 视域 人工智能 规制 信息