21世纪经济报道|如何把算法关进制度的笼子?

采访人员/王俊
实习生/王泽莹
数字经济时代 , 因数据规模的急剧扩大和运算能力的飞跃提升 , 基于算法的自主收集、挖掘、识别、分析、预警、处理、诊断、决策系统 , 被广泛应用于各行各业 。 算法在带来便利的同时 , 也出现了算法歧视、算法黑箱等问题 。 算法治理无疑是当下以及未来一段时间的重点 。
10月23日 , 由北京理工大学法学院主办的“第五届全国智能科技法治论坛”在京举行 , 算法与法律治理成为会议主题 。
如何保障个人在算法社会的合法权益 , 把算法服务作为核心商业模式的平台应承担哪些责任 , 算法造成的安全风险如何规制?与会专家们从个人权利、平台责任、刑法规则等展开讨论 。
保障个人“免受自动化决策权”
自动化决策是算法时代的个人信息处理方式 , 指的是“通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等 , 并进行决策的活动” 。
个人信息保护法对自动化决策作出了明确规定 。 在中国人民大学法学院副教授张吉豫看来 , 个人信息保护法从风险预防、正当程序、个人权利等不同维度确立了规则框架 , 涉及影响评估 , 决策透明、公平公正 , 退出机制 , 个人获得说明及拒绝自动化决策的权利等 , 虽然条款较少 , 但对于实践中关注重点均有涉及 。
针对通过自动化决策方式向个人进行信息推送、商业营销的情形 , 个人信息保护法规定 , 要么提供不针对个人特征的选项 , 要么向个人提供便捷的拒绝方式 。 “实际上在这样的场景下 , 使个人拥有免受自动化决策的权利 。 ”她表示 。
张吉豫认为 , 这样的设计 , 有助于对比测试提供针对个人特征的推荐模式和不针对个人特征的推荐 , 促使不同算法之间竞争 。 同时 , 也能够对针对个人特征的算法提供一定的修正启示 , 起到辅助推荐算法设计机制作用 。
个人信息保护法还赋予个人获得说明及拒绝自动化决策的权利 。 其第二十四条规定 , 通过自动化决策方式作出对个人权益有重大影响的决定 , 个人有权要求个人信息处理者予以说明 , 并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定 。
如何理解个人权益有重大影响的决定 , 什么算“重大影响”?个人信息保护法没有给出明确答案 。 张吉豫认为 , 一方面是对相应法律权利或者是法律效果有明确影响的 , 另一方面是对于个人的经济地位、社会地位以及长期评价等可能产生影响的 , 也可以包含在重大影响的范畴之内 。
【21世纪经济报道|如何把算法关进制度的笼子?】个人权益的范围则相对较宽 , 包括民法上的人格权、财产权 , 也包括消费者权益保护法等法律里的相应权利 。

推荐阅读