微信截图_20240920153326.jpg
传媒观察 | “算法”要承担哪些法律责任
2020-11-06 09:17:00  来源:传媒观察  作者:夏梦颖 徐家林  
1
听新闻

编者按:智能传播时代,算法分发技术在新闻业中的应用,给新闻生产带来深刻变革和广泛影响。华东政法大学马克思主义学院博士生夏梦颖和华东政法大学法治政党与国家治理研究所所长徐家林教授,在《传媒观察》2020年第10期刊文认为,技术的背后是传播权力的扩张,算法型信息分发的迅猛发展,在逻辑维度、主体维度、内容维度以及功能维度给用户带来了隐私风险。网络平台以迎合受众需求、追逐商业价值为出发点,有可能会违背现有法律规定,或是利用法律制度的漏洞和缺陷,规避法律责任。明确网络平台对用户个人敏感信息保护、信息内容服务、算法治理的法律责任,以及增强法律对用户权利的赋予和限制,有助于防范算法型分发带来的隐私风险,实现保护信息产业发展与个人隐私权保护的平衡。

算法型信息分发的发展与变化是一种重塑传播规则、改变人们认知的全新制度设计,它的影响主要体现在以下四个维度上:逻辑维度、主体维度、内容维度、功能维度。算法在新闻生产中造成用户隐私风险显著提升。提高法律的适应性,应尽快在现行法律框架内对隐私权保护的问题进行回应,明晰网络平台的法律责任,实现大数据产业发展和公民权利保护的平衡。

算法型信息分发带来的隐私风险

第一,在逻辑维度上,算法智能化效果的提升实现深层监控,披露整合型隐私。算法分发以建立在个人数据收集基础之上的算法生产为前提。一方面,信息的全面收集并不区分个人敏感信息,许多敏感信息是在用户不知情的情况下被收集的,收集的范围用户不得而知。用户也不知道被收集的信息是否再次流转,如果被流转的信息缺乏有效保护,将进一步增加用户隐私泄露的风险。另一方面,伴随算法模型的智能化升级,对个人数据的全面收集将产生整合型隐私。伴随算法系统运行效果的精确化,算力在广度、深度和准确度方面都在不断提升,单一信息的采集也许并不泄露隐私,但是从海量信息中进行深度挖掘的个人数据,在结构再结构化之后就能够产生整合型隐私,个人隐私信息面临泄露危险。

第二,在主体维度上,提供个性化服务的算法模糊公私领域界限,增强隐私风险。一是网民以让渡空间隐私权的方式,助力网络企业进入私人空间。例如,以关联用户微博的连接方式推送个性化新闻,这就给网络服务商进入私人领域提供了机会,造成私人空间隐秘性受到破坏的风险系数上升。二是用户需求的扩容增强隐私信息披露的风险。用户为获取信息服务,愿意主动上传、发布个人信息,甚至一些用户出于博取眼球、换取经济利益的考虑出让隐私权。而网络企业对社交平台的个人碎片化信息的分析,能够轻易获知信息主体的价值观、政治倾向、兴趣爱好、家庭工作情况、亲友信息等私密信息,造成个人隐私的泄露。部分企业的算法推荐系统为了更深层地洞察用户需求,会提取个人通讯录、手机图片、视频等信息。这部分敏感信息一旦因网民进入公共空间将转化为公共信息,而由于信息主体对其微弱的控制能力,极易导致用户的隐私权益受损。

第三,在内容维度上,算法加剧舆论危机产生的风险并诱发舆论暴力。个体面对海量的信息,很难具备有效处理和筛选的能力,因而会自发地将自己关注的主题与内容向一部分具有专业话语权、有影响力的人或组织靠近。这就给媒体公司利用话语权的优势通过算法设置议程,推送偏向性信息,影响甚至操纵舆论提供了机会。媒体公司基于追逐商业利益目的,直接推送包含涉事主体隐私的信息,或是在算法技术的支撑下推送低俗甚至虚假信息,致使标题党现象泛滥。这都促进了信息内容在传播过程中的“变异”,对涉事主体的隐私构成二次伤害。伴随舆论危机的爆发,涉事主体的隐私成为公共讨论的议题,网民对隐私信息的大量补充性供给甚至可能演化为舆论暴力。更为严重的是,伴随用户的参与能力以及体验感的增强,网络暴力的危害性也会进一步增强。智能化驱动下的内容生产将刺激网民的情绪化表达,加剧网民对涉事主体的娱乐化、戏谑化等非常态化表达,对信息主体构成反复、严重的隐私侵害,对信息主体隐私造成的侵害威力亦显著提升。

第四,在功能维度上,算法的预测功能极易侵犯用户隐私权益,损害自主性,甚至产生带有偏见的预测结果,造成隐私侵害后果的不确定性。伴随算法预测成本的降低以及预测能力的增强,个人数据被使用的情况和场合不断增多,企业可以通过多种设备同时采集用户个人数据,预测用户的偏好,进行个性化推送。但这些个性化推送有可能侵犯用户的隐私权益。从用户单个信息、行为与隐私风险的相关性角度来看,用户难以预料自身的行为或者单个信息将来所产生的隐私侵害后果。例如,一个在脸书上表示喜欢(或不喜欢)“扭扭薯条”的人可能不会料到,这一点竟然会成为对于其智力的预测。智能传播时代,隐私损害后果的滞后性,致使用户对自己创造的数据或是数据使用是否造成隐私泄露风险的预判难以实现,从而削弱了人们的信息自决能力。更何况,由于算法的预测能力基于技术黑箱,预测的结果甚至连企业自身都难以预料,隐私风险也由此进一步加剧。

技术霸权与法律规制的缺陷

技术背后是网络巨头的扩张和垄断所产生的算法黑箱,彰显的是传播组织的控制以及日益增强的政治和资本力量的操控能力,传播组织以算法的方式扩张传播权力,影响社会权力结构,侵蚀用户隐私权。

媒体公司以追逐商业价值为出发点,而商业利益导向则引发实践中媒体公司市场理性与法治理性的矛盾。智能技术环境下,二者冲突加剧。媒体公司为追逐商业利益,借助自身优势地位,规避原本应当履行的法律义务,限制用户隐私权。例如,在知情同意原则上,该原则在实际的法律运用过程中屡屡成为企业隐私侵权的挡箭牌,部分企业甚至将其作为违法收集、处理用户信息的法律依据。一方面,企业为扩张传播力,实现传媒利益最大化,滥用现有法律的规定。另一方面,法律总是滞后于技术发展,企业能够迅速对技术寻求突破,而作为保护用户权利重要手段的法律制度则显得迟滞。

当前,我国对个人隐私权的法律保护与人工智能时代技术发展的速度不匹配,法律制度的漏洞和缺陷致使企业趁机规避法律责任。第一,对用户个人信息保护的责任。既有法律对敏感信息采取单一化界定方式,缺乏结合情境的多维度认定,媒体公司处理用户信息的行为主要基于知情同意原则,然而在实践中知情同意原则流于形式,缺乏多元化的知情同意法律责任认定框架。第二,对信息内容服务的责任。由于媒体算法新闻标题党现象严重,存在传播低俗内容、负面情绪以及虚假信息的情形,网络平台缺乏完善的人工干预机制,对平台在重点环节呈现正面信息的执法标准并不明确。第三,算法治理的责任。警惕当前新闻算法分发蕴藏着流量偏向、信息操控、平台利益优先等价值倾向,缺乏达成共识的网络平台算法方面的行业自律规定,进而限制了将成熟的技术性法律规范转化为合理的法律处罚。第四,网络空间用户权利的赋予和限制方面。我国既有法律对删除权的规定主要限制在特殊主体以及特定领域的信息如违法收集的信息上,删除权对象以及义务主体的法律规定存在局限性,删除权具体适用的规则不明确。智能传播环境下对人格权应当给予更加严格的保护,目前“通知+取下”法律规则在人格权领域的适用规则、网络服务商的法律责任的认定无法满足智能传播时代人格权保护的需求,对网络表达新技术的立法缺乏前瞻性。

隐私风险防范的法律对策

第一,增强网络平台保护用户个人敏感信息的法律责任。首先,确立个人敏感信息的范围。一般信息出于数据产业利益和信息流通的考虑应当允许企业利用,包含人格尊严、涉及人格利益的敏感信息应当依法进行限制,其中涉及如个体生物信息等敏感信息,需要法律提供超越隐私利益的周延性保护。其次,对敏感信息的法律保护,适用知情同意原则之上更高的保护标准。为提升实践中知情同意原则在个人信息保护上的有效性,对信息收集者的法律义务作出分类规定,其中个人敏感信息只有明确同意才能处理。最后,对于企业敏感信息处理行为设置底线,对数据画像制定技术性法律规范,增强对敏感信息处理行为的风险评估和防范。

第二,明确网络平台信息内容服务的法律责任。其一,明确网络平台限制非法信息传播的责任。当前以知情同意以及避风港条款作为认定网络平台法律责任的主要依据,立法应当结合技术发展的新形势,对平台在重点环节(包括服务类型、位置版块等)呈现违法信息的追责行为等法律责任实行综合认定,赋予其合理范围内的注意义务。同时,鉴于算法分发下信息传播内容的用户场景适配性、体验性增强,对隐私主体的侵害力的加剧,增强新闻伦理价值和人文关怀的法治规范,避免新闻平台追逐经济利益诱发或者助推网络暴力。其二,增强技术性法律规范的制定。应当适时调整审核标准,完善技术保障措施,例如建立假新闻源头黑名单,对当事人隐私设置前置保护程序,健全与人工干预、用户自主选择协调配合的技术性举措等,逐步将企业实践中成熟、有效的技术性措施转化为行业自律规定或技术性法律规范。其三,合理规定平台法律责任。我国《网络信息内容生态治理规定》第十一条规定了鼓励网络信息内容服务平台坚持主流价值导向,优化信息推荐机制。在算法推荐上,法律不仅禁止网络平台传播违法信息,而且增设了要求其传播正能量内容的法律责任。基于此,在机器审核的基础上,应增强平台人工审核比重的法律责任,健全人工干预机制,以实现对信息推送机制的优化。

第三,明确网络平台算法治理的法律责任。为了避免算法黑箱产生歧视,实现算法透明,一方面算法规制对用户权利、人格尊严的保护应当明确。建议对预测性算法做出严格的法律限制并借助立法明确算法自动决策使用者的法律责任,赋予用户对算法决策提出合理性质疑的权利,进而为用户的隐私权益寻求法律保护。对此,欧盟GDPR对算法自动决策使用者做出了为决策做出解释的法律要求。另一方面明确算法设计者、数据处理者等相关利益主体的法律义务,加强算法对数据利用层面的规制。美国2017年公布了算法治理七项原则:知情原则、访问和救济原则、可问责原则、解释原则、数据来源处理原则、可审计原则、检验和测试原则。美国计算机协会提出的算法透明和可责性原则值得我国在立法中借鉴和吸收,在此基础上,建立算法审查、监督、问责机制,完善算法监管体系,尤其是对一些采用问题算法的网络平台,借助自律规范,必要时候采取必要的法律手段进行处罚。

第四,法律对用户权利的赋予和限制。一是完善删除权。目前我国已经针对未成年人这一特殊义务主体赋予了删除权,应当以特殊义务主体以及敏感信息保护领域为试点继续完善删除权的法律规定,构建完善的删除权权利体系,增强删除权行使过程中的可操作性,借鉴域外先进的立法经验,进一步完善“通知+取下”在人格权领域的适用规则。二是规范对网民新型表达方式的法律限制,防止表达权对隐私权的限制。《网络信息内容生态治理规定》第二十一条、第二十三条对利用相关技术进行网络暴力、深度伪造技术进行了法律限制。网民通过智能化的音视频进行表达是公民表达权在网络空间的体现,应当予以尊重,但是无论何种表达形式都不能以侵蚀其他用户的隐私权为代价,立法应当增强前瞻性,及时防范用户新技术滥用带来的法律风险,同时进一步明确法律的适用规则,以平衡用户网络表达权和隐私权保护之间的关系。

(载《传媒观察》2020年10月号,原文约7000字,标题为:算法型信息分发的隐私风险及法律对策。此为节选,图表和注释等从略,学术引用请参考原文。)

【作者简介】夏梦颖,华东政法大学马克思主义学院助理研究员,政党与国家治理专业博士研究生

徐家林,华东政法大学法治政党与国家治理研究所所长,马克思主义学院教授,博士生导师

标签:
责编:王迅 崔欣
下一篇