立法沙龙
立法专题沙龙 | 中国的平台算法问责方案
2022-02-27 23:22:00 来源:admin 访问次数 :

2022年2月23日,由浙江立法研究院、浙江大学立法研究院、浙江大学数字法治研究院举办的“人工智能时代的算法治理”沙龙,在浙江大学之江校区主楼203室召开。本次沙龙从如何厘清算法与人工智能的关系、算法是否有道德、算法治理的方向等三个问题重点展开讨论。本次沙龙,由北京科技大学副教授张凌寒担任主讲人,浙江大学光华法学院讲师林洹民主持,浙江大学光华法学院副教授陆青、浙江大学光华法学院特聘副研究员周翔担任评议人,此外霍海红、章程、魏立舟、许戈雷特、栾兆星等老师也参与了讲座。


一、内容分享

01

其一,如何厘清算法和人工智能的关系?

张凌寒老师从二者的概念出发,指出算法是具备输入、输出、有穷性、确定性和可行性等特征的一系列解决问题的清晰指令。而人工智能的本质就是大数据和算法技术的总和。随着数据体量急剧增加,数据储存和处理能力指数级增长,以及算法技术、机器深度学习和神经网络的发展,人工智能也将经历基础算法、中等算法、人工智能算法、强人工智能、智能体等五个不同级别的算法发展阶段。

02

其二,算法有道德吗?

1984年美国最高法院在“环球电影制片公司诉索尼公司案”中确立了“技术中立”原则。但在后续的谷歌翻译的土耳其诗歌、伍尔夫夫人诉谷歌案、卢米斯威斯康辛案件等事件中,法律学者逐渐提出质疑,即算法到底有没有过错?算法是否应该承担法律责任?2017年9月,《人民日报》连发三篇评论,对基于算法而向用户自动推荐个性化内容的互联网业态提出了批评。产品不能沦为算法的奴隶。然而,算法是否应该有道德?这为什么会作为一个突出问题?这种问题折射出了科技的指数型发展与伦理道德线性发展的矛盾。那么,在人工智能时代,怎样做才能保证人类的幸福和伦理问题呢?即算法治理方向在何方?

03

其三,算法治理方向在何方?

算法治理关键是强调以人为本。那么如何以人为本呢?第一,不作恶。第二,以人为先。第三,尊重人的价值。具体而言,应该保护人偷懒的权利、离开网络的权利、匿名的权利和参与的权利等权利。


二、观点评议

01

首先,浙江大学光华法学院陆青副教授进行评议,认为同样作为私法学者,在这次分享中感受到,具备民商法背景的算法专家张凌寒老师对人的尊严、私人权益保障的考量和重视,对价值观的秉持和坚守。然后提出了两点见解。

(1)规范算法还是规范人?

当一个平台传播物品违反法律规定时,人们普遍认为是平台责任,而不是平台算法的问题,但算法和平台二者分不开。算法问题在法律上表现为人vs. 人的关系,是平台经营者和平台用户、商家之间的关系。因此,在我们讨论算法问题时,必须考虑到主体之间的相互关系。

(2)以人为本,可以考虑什么方向?

上述提到的“以人为本”的要求,弹性度比较大。算法需要一套价值观的嵌入。但最麻烦的地方是增加一套价值观,就会自然而然否定了另外一套价值观。当几种价值相互冲突时,如何化解,是算法研究的重中之重。

张凌寒老师做出回应。我国平台责任与平台治理紧密联系在一起。如果个性化算法推荐没有人工审核,此时平台是网络内容提供者还是网络服务提供者,这个问题这已经远离算法的话语体系,而落入到责任认定的私法的领域中。期待私法算法治理早日推广到公法的算法治理。

02

其次,浙江大学光华法学院特聘副研究员周翔老师进行了评议。

(1)技术的视角与法律的区别。

技术视角侧重于模型性能,法律视角需把社会的变迁,纳入到法律的规则体系中。因此,法律学者和计算机学者之间的互动是十分必要的。

(2)算法歧视问题。

算法歧视就是社会歧视的一个侧影。在美国,种族自变量的输入对社会风险评估非常有效果。在中国则是户籍。这从模型算法层面没有什么问题的,但是否向社会公开、真正能落入实践,这要交给法律讨论。即技术把社会原貌还原,法律层面则是在制度层面认可。

张凌寒老师做出回应,指出技术语言和法律语言的算法完全是两码事。法律人可能认为算法只是一个算法公式,其实是不同模块的层层嵌套和层层更新,因此确实有必要进行跨学科的研究。


三、沙龙总结

本次沙龙,意在通过观点展示、学术争锋方式,提炼共识,供学术界参考研究,以期促进法律与技术的有机融合,构建公平、透明、非歧视的算法治理工具,实现数据治理的目标,提升数据治理的能力,促进中国数字经济的发展。



地址:浙江省杭州市之江路51号
邮编:310008
联系电话:0571-88273247
浙江立法研究院、浙江大学立法研究院
版权所有    Copyright 2021 All rights reserved
技术支持: 创高软件 管理登录
官方微信