吹竹弹丝网吹竹弹丝网

信报箱国家标准

{15}法律的目的也是一个复杂的问题。

[16]之所以会这样,乃是因为我们的哲学、政治文化比较早熟。法学(或文学)作品中所举的一些机械司法的例子只是极端的少数情形,并且选择机械司法的背后多少带有个人的价值偏好或者某个方面的利益追求。

信报箱国家标准

二是创造性解释法律,但法律意义的安全性受到了威胁。这两种保证必须在司法决策层面上同时加以兑现。第五,对于法条再怎么修改,也永远赶不上社会变革。(3)诉讼中体现的社会目的如何加以承认是社会哲学的问题,并非是法学或法律解释学的问题。然而,在现代法律已经增多的形势下,解释并不能过度。

无行为能力人的监护人就不能代行同意的权利。它完全论及意义理解之可能条件,仅在于叙及在何种条件下人们可以理解某种意义。[44]正因如此,将人工智能实体拟制为法律上的责任主体,使其拥有自身法律意义上的财产,并在自身财产范围之内承担赔偿形式的民事法律责任具有一定意义。

[42]其二,将人工智能实体作为承担有限责任的法律主体,可以激励各类市场主体放心地进行人工智能实体的高阶研发,不会因担心承担无限的法律责任而怠于在人工智能实体研发应用方面的投入,从而促进人工智能技术的快速发展。参见[美]凯斯·R.桑斯坦:《信息乌托邦:众人如何生产知识》,毕竞悦译,法律出版社2008年版,第8页。[8]桑斯坦提出的信息茧房问题是指我们只听我们选择的东西和愉悦我们的东西的通讯领域。既然在民事法律责任中停止侵害、排除妨碍、消除危险可以作为独立的责任方式,那么在行政法律责任中改正违法行为也应可以作为独立的责任方式。

[6]平台企业通过运用算法权力能够为自身谋取更多的利益,并在此过程中利用与平台用户之间的高度信息不对称对用户的合法权益造成损害。一旦这种第一性义务被平台企业实施的大数据杀熟行为所违反,那么修改算法程序、取消对平台用户在交易价格上的不合理差别待遇就是随之产生的当然随附责任,这种附随责任无须以平台企业存在过错为前提,而是直接源自法律规范中第一性义务所应具有的法律效力,也是法律秩序存续的必要条件之一。

信报箱国家标准

依据这一条款,从行政执法机关角度而言,其有权对算法推荐服务者作出行政处罚决定。依据法律规范调整的法律关系主体地位的不同,法律义务可以区分为私法义务和公法义务,对应的法律责任也可以区分为私法责任与公法责任,它们之间存在着重要的区别:私法义务中设定的是社会主体相对于其他个体的行为义务,义务面向的是特定的个体,目的主要在于保护个体权利。这三种类型的法律责任都可以实现对数字平台算法侵害的事后规制,不过,学界现有的相关研究主要集中在数字平台算法侵害的私法责任(民事侵权责任)上,而对于数字平台算法侵害的公法责任,特别是行政法律责任的理论研究则相对较少。[26]因此,现代主权国家的立法机关都会针对各种法律义务设置相应的法律责任,一旦社会主体拒绝履行法律义务,也即实施了违法行为时,就可以由执法机关追究其相应的法律责任,要求其纠正违法行为、弥补受害者损失并对违法者进行惩戒,使其承受实施违法行为的报应并威慑其他潜在的违法者,维护法律秩序的存续。

数字平台算法侵害行政法律责任设置的法理基础是数字平台的公共性导致算法侵害行为会对公共利益造成影响,而行政法律责任的设置较之民事法律责任更能有效地维护公共利益。[5]算法在传统的网络科技领域中属于纯粹的技术工具,但是随着数字经济的迅速发展,平台用户数量呈现几何级数增长,算法已经开始呈现出权力的特性,也即学者所说的算法权力。于是,诸如大数据杀熟信息茧房算法标签算法归化等现象频频出现,不断侵蚀着平台用户的合法权益,这也就是所谓的数字平台算法侵害。其二是算法的设计开发主体或部署应用主体基于主观上的过错,因编写错误的程序代码、输入缺陷的训练数据、违反正确的操作流程等行为而导致的侵害。

[11]偏见进,偏见出来自计算机科学术语垃圾进,垃圾出(garbagei in,garbage out),由Mayson教授引入法学领域算法歧视问题的分析。它作为人工智能算法的部署运用者,事实上处于人工智能复杂技术生态体系中的核心地位,其他多元参与主体实施的行为都是最终服务于平台企业。

信报箱国家标准

[43]不过,这种观点的缺陷也是明显的,因为它更多地是基于民事法律责任进行分析,将受害人的请求限定在民事侵权损害赔偿之上,而忽略了诸如行政法律责任此类公法责任的追究,没有注意到民事法律责任和行政法律责任之间的区别。[7]参见周辉:《算法权力及其规制》,载《法制与社会发展》2019年第6期,第118—119页。

数字平台算法侵害行政法律责任的设置就此体现出了比较优势。[4][美]罗伯特·塞奇威克、凯文·韦恩:《算法》(第四版),谢路云译,人民邮电出版社2012年版,第1页。例如,当行政执法机关发现数字平台存在大数据杀熟的行为,利用算法在交易价格上对平台用户实施不合理的差别待遇时,理应要求平台企业停止此类算法侵害行为、避免继续实施大数据杀熟。然而,在人工智能算法技术不断发展的当下,将过错推定原则作为数字平台算法侵害行政处罚的归责原则存在不适宜之处,应当采用无过错责任原则更为合适。法律责任制度的设置就是一套有效的激励体系,不同的法律责任的分配会产生不同的激励方向,且激励强度也各不相同。这主要表现在:其一,在信息操控类算法侵害中,平台企业编织的信息茧房实质上缩小了平台用户可以接触信息的广度,从而减少了与不同主体达成合作的可能性。

[1]而对于数字平台算法侵害事后规制的研究则方兴未艾,引发了越来越多的关注。而且,行政执法机关对违法主体的责任的主动追究也能对其他潜在的违法主体予以更强的警示,避免新的违法行为的出现,产生一般威慑的法律效果。

(一)数字平台的公共性与算法侵害对公共利益的破坏在数字平台的早期研究中,曾有观点认为数字平台只是中立的技术中介,属于纯粹的管道,仅仅只是传输信息而不创造信息。数字平台对合作关系的促进功能主要体现在以下几点:其一,数字平台通过对平台用户中供需各方信息的汇总,能够成为供给端与需求端之间的信息桥梁,使平台用户超越物理空间的局限性,极大地降低供需各方发现对方的信息成本,促进平台用户间的合作。

所谓数字平台算法侵害的事后规制,是指设定数字平台算法侵害的法律责任,对实际发生的数字平台算法侵害行为予以制止和惩戒,追究平台企业的法律责任,要求其纠正算法侵害行为并防止其再犯,从而保护平台用户的合法权益,引导平台企业的算法向善。而行政法律责任的追究则可以由行政执法机关主动予以实施。

第三,平台企业作为算法侵害行政法律责任主体还能有效提高算法行政规制的效率。由于数字平台所具有的技术特性与网络效应,[19]它能够承载的平台用户的数量在理论上是没有上限的,因此以上三种对合作关系的促进功能会随着平台用户数量的增加而不断增强,这也就意味着数字平台的公共性具有随着平台用户扩张而持续强化的特质。因此,平台企业就有动力运用算法违反最小必要原则[13]过度收集平台用户数据(特别是个人信息数据),这就可能会对平台用户的权益产生潜在的损害。何谓数字平台的公共性?理论上一般认为公共性的本质在于社会共同体的合作,保障社会化大生产,增进社会更大范围的合作,促进有效率的生产和协作,才是公共性本体论的根本。

[33]参见许可:《算法规制体系的中国建构与理论反思》,载《法律科学》2022年第1期,第126—127页。国外学者对算法归化问题的研究,参见Jack M.Balkin,2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy:The Three Laws of Robotics in the Age of Big Data 78 Ohio St.L.J.1217,1238-1239 (2017)。

于是,平台企业也就顺理成章地被认为是单纯的信息服务提供商,与传统经济中的普通企业并无太大的区别。参见[美]谢利·泰勒、利蒂希亚·安妮·佩普卢、戴维·西尔斯:《社会心理学》(第12版),崔丽娟、王彦等译,上海人民出版社2010年版,第168页。

[30]法理学者的研究指出,私法责任以功利性补偿为主,公法责任以道义性惩罚为主。从这四种数字平台算法侵害的理想类型中,可以发现它们具有的一些共同特征,包括:其一,数字平台算法侵害的产生通常都是与信息数据的运用密切相关,是平台企业通过算法工具不当处理信息数据而发生的损害。

因此从现行的成文法规范来看,数字平台算法侵害的行政处罚应适用行政处罚法中规定的过错推定原则。由此,行政执法机关也能在面对人工智能技术所引发的高度信息不对称的情境中,通过施加对平台企业的影响,督促其建立完善的合规体系,防止算法侵害的发生,这就与行政规制理论中的元规制[49]方式具有异曲同工之妙。[16]根据这一观点,数字平台只是企业经营的一种特殊场所,与传统的大型购物中心的区别主要在于没有实体的展示区域,只是将交易物品信息放置在网络上而已。因为人工智能实体不具有自然人的情感,无法像自然人一样因受到行政处罚而产生畏惧的心理状态从而调整自身的未来行为。

参见[美]劳伦斯·弗里德曼:《碰撞:法律如何影响人的行为》,中国民主法制出版社2021年版,第131—132页。例如,在标签设定类算法侵害中,对于平台用户错误的标签设定或许可能源于算法决策所依赖的数据错误,属于数据供应主体的过错而非平台企业的过错。

编织信息茧房是指平台企业通过算法收集分析平台用户浏览痕迹的信息数据,发现平台用户的真实偏好并据此持续推送类似信息,将平台用户纳入到类似信息的茧房中,诱导平台用户持续沉迷于同类信息数据流中无法自拔,从而延长在特定平台的浏览时长,增加数字平台的流量数据。当平台企业出于自我利益最大化的冲动利用数字平台算法对平台用户的权益造成侵害时,也会对社会成员间合作关系的达成造成负面影响。

[45]参见[德]霍斯特·艾丹米勒:《机器人的崛起与人类法律》,李飞、郭小匣译,载《法治现代化研究》2017年第4期,第70页。参见叶良芳、马路瑶:《风险社会视阈下人工智能犯罪的刑法应对》,载《浙江学刊》2018年第6期,第68页。

赞(7)
未经允许不得转载:>吹竹弹丝网 » 信报箱国家标准

友情链接: