分享到:
电话:0371-61318821
助力企业快速实现 "互联网+" 计划

官方微信

郑州星云互联新闻中心,郑州星云互联资讯
首页 > 新闻中心 > 行业新闻

大数据“杀熟”,算法“歧视”,网络互联时代如何实现算法正义?

大数据“杀熟”,算法“歧视”,平台“画像”……网络互联时代,算法,这个曾经藏匿深处、远离大众的互联网专业词汇,如今越来越多地被提及,越来越多地被关注。


算法以全新的挑战形态对法律实践产生冲击,如何回应这些挑战,如何用法律保护算法的计算正义,使其促进共同善的同时,不对正义和公平造成冲击,本文作者认为,传统的回应型规制视角并不可取,而是应该从计算正义角度重构算法与法律的关系模式。


01算法的广泛应用带来诸多法律困境


算法技术的独特性不仅体现在算法如何进行计算和应用,而是对法律的价值世界造成冲击。算法所引发的不仅是技术不受约束或者行业难以监管,而是在一个非常基础的层面上冲击了法律这种制度形式:算法系统的黑箱问题、算法运行过程中的歧视、算法对偏见的数字化固化等等。这些现象导致社会产生强烈担忧,更让法律规制面临棘手困境。


社会生活的计算化和算法与法律的融合产生了三方面的难题,带来了一定程度的社会危机和治理困境。


第一类是监管难题。社会生活的计算化改变了传统概念的内涵和社会理解,算法对社会生活的“入侵”使得隐私、自主、平等等概念变得模糊不清。借助算法,运营商对个人数据的收集变得易如反掌,通过算法监测用户的举动也成为技术常态;社交平台收集用户信息并进行画像,定向推送广告;网络服务提供者运用数据进行特定的数据分析或者实验。


第二类是价值难题。从效用上看,算法具有巨大的社会利益:在商业领域,算法可以快速精准地判断市场商业需求;在公共领域,算法也潜力无限。然而,从价值角度来看,算法引发一定程度的价值危机:一方面改变人的主体性理解,赋予人的自由、自主选择和决策以新的内涵;另一方面在实践中引发固化歧视、侵犯隐私的问题,构成对人之尊严的威胁。


以算法黑箱问题为例,在商业领域,消费平台会基于人们的购买记录和消费习惯而差别定价,这种操作的依据并不透明,消费者也难以察觉。算法黑箱的规制难点在于算法决策过程完全由机器根据特定函数进行运转,人力无法干预,更无法解释算法运转的内在原理。


然而,人们需要对算法的价值难题保持清醒的认识,算法本身是技术应用程式,其价值问题本质上是算法设计者和使用者利用算法损害某些价值。


第三类是归责难题。算法应用必然伴随着法律责任配置,以防范风险和实施救济。随着人工智能的广泛应用,其侵权问题也成为理论难点。人工智能的风险之一是算法侵权的救济途径难以确定。


一个典型的例子是自动驾驶汽车致损的责任认定问题,汽车生产厂家、算法设计者和车主应如何划分责任,是自动驾驶汽车进入市场前须解决的问题。此外,算法歧视的救济也是一个复杂问题,特别是在公共决策中,如果一个人因为性别或学历而受到自动化行政决策的不同待遇,他能否向政府主张救济?




02 算法的价值:共同善与计算正义


理解法律与算法之关系的关键在于从价值上厘清二者之间的关联。


算法的内涵有技术和社会两重意义。算法的技术意义并无太大争议,算法是一种计算方法,通过计算公式得出确定的结果。算法的社会意义受制于科技发展水平和社会语境,计算机的发明和网络传输技术的提升使得大数据收集成为可能,在此基础上,算法通过对海量数据的深度学习可以实现自我更新和升级,最后形成更为成熟的算法。


网络服务主体开发利用特定算法(决策树、贝叶斯算法等)并服务于社会公众,比如信贷机构、网约车、社交和外卖平台等。除了商业外,政府也可以发挥自动决策的优势,运用算法决定行政审批,包括公共资源审核、假释评估等。


可以看出,算法改变了社会,也创造了更多新的可能。但从价值角度来说,算法的社会意义主要体现在算法能够促进共同善,即对于社会共同体的每个个体都至关重要的那些善好,比如知识、社会交往和实践理性等等。


社交媒体可以促进社会交往和信息交流,大大便利人们对知识的追求。算法的引入,使得人们不仅能够更好地实现这些善,也改变了实现善的方式。比如传统知识获取方式是阅读和教育,现代的知识获取方式十分多元,网络阅读、视听平台、社交媒体传播等都是知识获取的重要方式。


但算法并不能自动实现这些基本善,人们带着改善社会、实现善的意图将算法嵌入到各种应用场景之中,算法不仅参与到善的实现过程中——人们借助算法技术能够更便捷地检索知识,也能重塑知识这种价值,知识不再是关于世界的判断和信念,也成为以计算化的方式而存在的代码和数据。


这个过程产生了正义问题。


为什么要提出计算正义?


算法是技术,通常来说被用于实现某种目标,比如设计一种视觉识别算法,用于人脸识别或者动画设计。算法技术与正义无关,但算法运行在某一场景之中,并且对人的决策和行动产生实际影响的时候,算法技术就产生了正义问题。


由于算法种类千差万别,应用场景层出不穷,算法涉及到的具体善也非常多。但整体上来说,算法实践最终都指向社会实践的基本善,也引发实现这些善的正义问题。


例如,招聘算法能够帮助雇主更为精确和高效地挑选合适雇员,促进就业,但计算过程可能会包含潜在的歧视。如果一个雇主对女性应聘者说:“你是女性,我不能招聘你”,显然构成歧视,法律可以对这种性别歧视做出回应。但如果招聘算法在数据处理过程中包含着偏见,法律对这种计算化的偏见应该如何回应,却是一个全新的问题。



03 算法与法律的重构模式

社会实践是复杂的,充满了价值冲突和利益分歧,算法应用在诸多方面加剧了这种复杂性。算法实践所引发的法律挑战和价值担忧,使得对算法进行规制成为必需。


在算法应用出现问题和引发担忧时,很多建议往往采取传统的回应型规制视角,主张将算法纳入法律监管,通过法律对算法进行规范。然而,规制所承载的回应型法律姿态不足以应对新兴科技的发展步伐,因为从实践来看,科技对法律的影响意义反而比法律对科技的回应和规制更为突出。


理解算法与法律之关系的一种理想模式是重构模式,该模式强调的是法律在应对技术挑战时,应当对自身追求共同善的方式进行重新梳理。这种模式并不是要改变法律的属性,而是分析算法和法律的价值分别如何实现,二者之间如何契合,以及出现冲突时应该如何解决。


例如,面对算法歧视时,正确的思路不是通过法律消除算法的歧视,而是分析算法歧视与传统歧视有何不同,根源上是否存在差异,以及法律是否能够展现出不同于传统歧视防范方式的新方案。在算法的法律应对上,重构模式可以发挥更为实质的作用和理论指导意义。


在价值上,算法既冲击了传统价值实践方式,也重塑了价值的呈现形态。算法的社会意义主要体现在决策上,包括公共决策和私人决策。决策的主要意义在于为利益分配和社会合作提供方案,引导人们追求共同善。


算法追求的具体价值类型有很多,有一些价值是法律与算法共同追求的,比如效率,但两者也存在着很多价值差异,比如算法追求决策的客观性,法律则追求决策的公开透明。这些差异会带来实践张力。例如,人的决策会受到认知局限、价值偏好等方面的影响;算法决策则以客观数据为素材、借助海量数据分析引导决策。


算法运行是客观的,但也会因为数据的选择、算法的设计而注入偏见和引发歧视。这种歧视不同于人为歧视,而是一种被计算化的技术偏差。因此,算法歧视的源头不在于算法本身,而在于机器学习所使用的那些数据。机器学习必须使用人类的生活和实践经验中所积累的数据,而计算结果反过来又影响人们的实践。


如果没有算法的参与,人类决策和预测也会产生大量偏见。算法影响了偏见产生的方式,主要体现在决策过程的计算化和数据化改变了人们的价值推理方式和道德判断形态,也带来正义评价机制的改变。计算正义旨在揭示这种改变的社会和法律意义。算法应用范围的扩展和具体应用场景的实践积累不断重塑计算正义空间的结构和道德内涵。


机器学习的决策结果与传统的道德判断产生的社会意义不同。人的道德判断具有一个面向实践的开放性论辩结构,比如,要判断男性是否比女性更具有能力优势,可以通过道德论辩、价值衡量和实践检验加以辨析。但机器学习的技术性知识转化(社会理解转变为数据输入)、复杂化运作(数以亿万级的数据处理),为算法决策所承载的道德判断赋予了全新的技术内涵。


通过社会规范或者制度安排而表明的歧视性判断与通过计算过程而得出的智能化偏见在本质上是不同的。我们不能确定地说算法偏见必须通过算法自身的技术改善而得以消除,但至少可以确定的是,如果只认为通过法律规制能够消除这种偏见,是错失重点的方向。


所以,实现计算正义,首先不在于解决算法运行中的问题,而是展示如何从法律角度理解算法所引发的价值问题,以及构建出这两种“规范”之间的互动空间。



作者:作者:郑玉双,首发于Internet Law Review 时间:2021-12-23 阅读:675 分享到: