互联网爱好者创业的站长之家 – 南方站长网
您的位置:首页 >资讯 >

刘晓春​:厘清平台责任,完善互联网知识产权保护规则

时间:2022-05-19 11:47:13 | 来源:中国知识产权报
中国社会科学院大学互联网法治研究中心执行主任 刘晓春中国社会科学院大学互联网法治研究中心执行主任 刘晓春

网络技术和平台经济发展对著作权保护带来的重要挑战之一,就是如何确定算法推荐在平台责任认定中的定位和角色。在平台用户侵权行为发生时,传统被认定为帮助行为的网络平台推荐,是否会因使用了算法而转变为直接侵权行为?如果认定为帮助行为,算法推荐是否会使平台承担更高的针对著作权保护的注意义务?

在讨论算法推荐与平台责任的关系时,需要回答两个核心问题。第一个问题是,平台使用的是什么类型的算法。第二个问题是,平台使用算法是否能够增强平台对著作权侵权行为的识别能力。

首先要厘清算法与行为的关系。现实中,算法呈现各种各样的形态和功能。《互联网信息服务算法推荐管理规定》中规定了生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等。我们必须结合算法的具体功能、设计、效果等,将算法放到具体的行为过程中去评价。例如,个性化广告推送、自动化定价、网约车调度决策,这三类虽然都是算法技术的典型应用,但是由于在设计原理和效果功能上大相径庭,应将这些算法应用嵌入到具体行为中进行定位和评价,而不应该将这些算法独立出来,对其可能承担的责任进行统一评价。在侵权责任认定时,需要清楚了解平台究竟使用了什么算法。不同的功能设定和技术原理,可能使不同案件、不同主体使用不同算法,不同的算法设计可能导致截然不同的责任认定结果。

使用算法是否能够增强平台对著作权侵权行为的识别能力?以上述所列举算法类型为例,通常很难认为算法调度类或者自动化定价类的算法,有可能增强平台对著作权侵权的识别能力。在短视频平台上,常见的算法技术类型可以分为两种。一种是“协同过滤算法”,其基本原理是根据用户的行为数据、兴趣偏好及与其他同类型用户之间的关联,进行用户画像并推送内容。在这类应用过程中,算法主要针对用户进行数据分析和标签设置。第二种是出于内容治理等法定义务对特定风险内容进行识别,例如涉及到公共利益、法律法规禁止传播的内容。在这类治理型算法中,算法根据特定的目标设定识别功能,并不能直接扩展到其他功能。例如,用于识别具有不良影响图片的算法,属于“低阶”识别功能,目前可以通过统一的标准化模型实现。而如果要使算法能够识别“谣言”“名誉权侵权”“著作权侵权”这些相对的“高阶”功能,则需要进行专门的训练和开发,针对不同主体的权利、不同侵权情形分别形成一套独立的、定制化的专门算法,其难度和成本也相对更高。

因此,在清晰区分此算法并非彼算法的前提下,有必要根据算法的不同技术原理和运行功能来判断,特定算法模型对于著作权侵权而言,是否事实上增加了平台的识别能力,从而判断平台是否应当承担更高的注意义务。就此,需要建立合理的举证责任分配机制。可以将司法过程中的事实查明,与算法治理中的行政合规机制形成对接。通过行政监管中的算法评估、算法备案等治理机制,平台可以在个案中将经过评估、备案的算法原理作为初步证据,把算法合规治理和个案当中的算法问责结合起来。

一种观点认为,算法推荐服务扩大了侵权作品传播的范围,且平台从中获取了更多流量和竞争优势等利益,从而应当因其算法推荐服务承担更高注意义务。在笔者看来,对这种“风险越大、利益越大、责任越大”的观点,在网络空间治理制度顶层设计和整体政策取向上讨论平台的主体责任和社会治理功能,是存在合理性的,这也是目前国内外关于平台治理整体导向的一种典型理念。但是另一方面,在具体的规则设计和个案裁判层面,这种观点很可能缺乏法律依据和逻辑基础,也不符合侵权责任法上关于过错和注意义务的一般理论。

事实上,任何一项新技术新业态的发展,都可能带来各个层面、针对各个主体的风险和利益。在确定具体领域的平台责任和注意义务时,需要区分不同算法类型和不同侵害结果之间的关联程度,确定合理的标准;在设定特定领域平台注意义务时,也应结合可能给产业带来的成本和收益进行权衡。一味要求采用算法就要提高注意义务,可能造成行业成本“一刀切”式提高。要求程度过高如要求前置审查,甚至可能形成市场进入壁垒。为此,在实践中,有必要秉持更加宽阔的产业视野,对于并未达成共识又对产业可能形成实质性影响的一般性规则制定,保持必要的审慎态度。(文字:刘晓春 插图:赵偲懿 新媒体制图:王镇杰)

(编辑:晏如)