养老保险案例

[16]参见高培勇:《实行全口径预算管理》,中国财政经济出版社2009年版,第121-125页。

(三)审查程序不同 宪法和法律委员会对法律案的审查适用立法程序,对法规备案审查适用违宪审查程序,《立法法》对此分别作出了规定:前者见于《立法法》第二章第三节全国人民代表大会常务委员会立法程序,后者见于第五章适用与备案审查。由于立法审查和宪法监督具有本质上的差异,虽然二者主体同一,但理论基础、审查对象、审查程序、审查标准、审查效力、审查目的均有不同。

养老保险案例

《立法法》第87条规定:宪法具有最高的法律效力,一切法律、行政法规、地方性法规、自治条例和单行条例、规章都不得同宪法相抵触。倘若宪法和法律委员会仅为一个工作机构或者辅助机关,其更名无需如此大动干戈——由党中央全会、党的决议、宪法修正案和全国人大常委会决定来完成。我国实行人民代表大会制度,除最高人民法院由宪法设立外,所有下级法院和专门法院都由全国人民代表大会及其常委会设立[32]。在潘洪斌一案[35]中,杭州市人大常委会制定的《杭州市道路交通安全管理条例》规定对机动车限行、限号,将外地车辆退回原籍并对当事人进行罚款。宪法和法律委员会认为,由最高人民法院设立金融法院超越了宪法授权。

法律案审查运用的是不抵触原则[28],其规范依据是《宪法》第 5 条第3 款的规定:一切法律、行政法规和地方性法规都不得同宪法相抵触,以及《立法法》第99条的规定。虽然我国实行多元审查双重监管[21],但是,鉴于县级以上地方各级人大常委会的备案审查属于立法监督,各级政府的备案审查属于履行法规制定程序,此处的备案审查仅指全国人大常委会对法律以下的规范性文件的合宪性审查,具体由宪法和法律委员会依据《全国人大组织法》第37条和《立法法》第100条对规范性文件是否合宪进行的审查。[40]John Cheney- Lippold, We Are Data: Algorithms and the Making of Our Digital Selves, New York University Press, 2017, p.102. [41]参见前注[29],王旭文 [42]林来梵:《从宪法规范到规范宪法:规范宪法学的一种前言》,法律出版社2001年版,第105页。

(一)算法歧视对人的物化有悖人是目的的伦理要求 效益最大化导向的算法目标设定可能忽视了人是终极目的这一命题,背离了人的尊严的价值内核。[27]人的尊严是每个人的共同体资格的担保,也是共同体的根本法。新兴科技能够被纳入以尊严为中心的价值评判体现之中。此外,还有些算法规则的设计直接以个别化的方式来建构,这与平等的一般原理明显相悖,缺乏正当性基础,如大数据杀熟中的价格歧视恰恰是针对特定和个别的主体进行特殊调整。

(三)适度规制算法权力 信息技术革命带来了新的权力形态,导致了算力即权力的新现象,同时也使传统上的用来抗衡国家权力的公民权利面对更隐蔽、更无所不在、更多元化的权力技术的侵蚀。[29]人的尊严不可侵犯原则不仅是宪法基本权利规范体系之出发点,同时构成宪法限权规范及宪法整体制度体系的基础性价值原理,进而构成一国整体法律规范体系的基础性价值原理。

养老保险案例

[29]参见王旭:《宪法上的尊严理论及其体系化》,载《法学研究》2016年第1期。[52]参见前注[10],崔靖梓文。另一方面,也要提防公权力与算法权力的合谋,公权力运用算法决策应通过审慎的考量并接受必要的监督。[19]齐延平:《人的尊严是世界人权宣言的基础规范》,载《现代法学》2018年第5期。

[1]例如,算法预测模型广泛地应用于个性化定价和推荐、信用评分、工作应聘的简历筛选、警察搜集潜在嫌疑人等诸多领域。它一方面削弱了决策者的主体性地位,另一方面也削弱了受算法决策约束的对象群体的主体性地位。作为宪法价值的尊严是每个现代法治体系的必然内涵。一、算法歧视对人的价值的冲击 不可否认,智能算法的运用有着无可比拟的优势,立足于大数据之上,算法通过对海量数据样本的全盘分析可能得以窥探事物的全貌,避免人类因有限的观察体验而产生的局限性,可以更为准确地反映客观世界,并尽力排除人的主观因素的影响,由此作出更为科学的判断。

[8]参见郑智航、徐昭曦:《大数据时代算法歧视的法律规制与司法审查——以美国法律实践为例》,载《比较法研究》2019年第4期。[9]当算法被描绘成合理、客观的决策工具却隐含着歧视时,受算法决策影响的对象群体将更难以获得权利救济。

养老保险案例

[52]当技术发展越是超乎人们的想象,越要缩限其运用的边界,因为超乎想象的发展步伐意味着人类社会的既有规制框架发生了明显的滞后性,缺乏人类价值指引的技术,很可能会成为对抗人的恶的力量,很可能存在削弱人的主体性的风险,损害作为最高价值的人的尊严。参见前注[19],齐延平文。

算法经常披着自动化决策的外衣,给人以不可规制的假象,其实算法都是根据人的意志设计的,留有一些可调参数可以被规制和引导。[21]参见王锴:《论宪法上的一般人格权及其对民法的影响》,载《中国法学》2017年第3期。就人工智能而言,尊严构成了技术实践的制约性伦理要素。人性尊严的基础在于自治,在于每个人可以不受干涉地、按照客观的道德实践法则来行动。算法歧视性后果的发生得以让人们重新定位算法并找寻新技术背景下人的尊严与价值。[30]参见前注[19],齐延平文。

在算法系统中,每个个体都被转化为可计算的数据,相对于大数据而言,个体的数据是微不足道的,而在宪法面前,每个个体的权利保护又都是不可忽略的。对于受算法决策约束的对象群体而言,主体性地位的削弱也是在所难免的。

[53]See Cathy ONeil. Weapons of Math Destruction: How big data increases inequality and threatens democracy. New York: Crown Publishers , 2016, P.3. [54]参见前注[8],郑智航、徐昭曦文。人类社会的发展不应拘泥于人类社会过往的状态,否则,那将使得人永远沉浸在过去的漩涡中而难以自拔。

算法歧视冲击着宪法中奠定的人的价值。正如凯西·奥尼尔所言,对算法模型的掌控最终取决于我们自己。

任何人都具有人格的尊严,在自由人格的形成这一点上必须享有平等的权利。[11]这是因为人类社会本身就存在歧视,如果算法中的数据准确映射了社会客观现实,仍然会产生歧视。在公共权力的长期运作过程中,算法的技术合理性又使其蒙上了可以巧妙避开民主监督的面纱。[7]也有学者根据算法歧视的表现形态,将算法歧视分为偏见代理的算法歧视、特征选择的算法歧视和大数据杀熟等三种基本形态。

免于歧视意味着尊严强调人在道德理性上的平等,同样有自由发展人格的资格与潜能。例如,德国航空安全法案规定,当飞机用来威胁人之生命,军队可以动用武器来防范特别严重的不幸事件的发生,这就在保存飞机上无辜乘客的生命与拯救其他人的生命之间作出了选择。

[57]既有的证据显示算法可能存在歧视,因此在特定重大领域运用算法决策时,应经过充分的论证,允许自动化决策的例外,赋予公民有不受自动化决策的选择权,还应提高公权力领域算法运行的正当程序要求,对于司法活动运用算法决策应作严格规定,并建立相应问责机制。正是人的独特的价值指引着人们去追寻真善美的生活,去提醒人们在世俗的社会规则之上,还有头顶上的星空和内心的道德律。

威斯康辛州最高法院虽然认为使用COMPAS系统并不违反宪法中的正当程序原则,但也对法院使用算法系统辅助量刑裁判作出了限制和警示:必须确保有资源、有能力维护量刑工具并监控其持续准确性。首先,要强调的应该是形式平等的实施。

在技术权力裹挟公权力的新兴权力格局中,人们将愈发失去抵制能力,大部分的技术文盲只能沦为技术与权力双重压制的鱼肉。[38]当然,这种观点夸大了算法技术对人的物化,忽略了人的主观能动性,难免显得偏激。[11]HOUSE OF LORDS of UK, Select Committee on Artificial Intelligence Report of Session 2017-19. AI in the UK- ready, willing and able, 16 April 2018, P.41. [12]Sandra G. Mayson, Bias In, Bias Out, 128 Yale Law Journal 2218(2019). [13]参见胡凌:《数字社会权力的来源:评分、算法与规范的再生产》,载《交大法学》2019年第1期。[17]保障人的尊严从道德哲学的要求转变为法律体系的基础规范,蕴含着立宪者对人作为终极目的的肯认与推崇。

算法系统设计师凭借经验来决定哪些数据对于决策是重要的、哪些是不重要的,这种草率选择的数据或许会产生结果偏差。旧金山市政府在2019年5月14日通过《停止秘密监视条例》,禁止当地政府部门如警察局、治安办公室、交管部门使用人脸识别。

治理算法歧视、规范算法的运用,应强调人的尊严的价值归依,要求把维护人的尊严作为科技发展的最高价值,强化国家对人的尊严的保障义务,制衡算法权力对人的尊严的侵蚀,在特定重大领域审慎使用算法决策系统。[27]参见上注,胡玉鸿文。

尊严的核心在于它是一种不受支配的内在价值,这种价值必然需要得到他人的尊重才能实现,这就意味着自己的生活不受歧视和自己的生活不受冒犯,前者属于尊严暗含的平等价值。同时,数据也在逐步吞噬人类认知的个性,人最终会被自己创造出来的数据统治。