起点|陈玲:将算法治理的“可接受公平”框架落到实处

中新经纬12月21日电 (张燕征)近日 , 清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场、算法设计与企业社会责任”研讨会 。 清华大学公共管理学院副教授陈玲在研讨会上指出 , 可从数据、算法、人类行为三个层面入手 , 建立一个“可接受公平”的整体框架 , 关注算法治理的起点、过程和结果公平 , 促进AI的创新发展和善治 。

起点|陈玲:将算法治理的“可接受公平”框架落到实处
文章图片

清华大学公共管理学院副教授陈玲 。 来源:主办方供图
“不管哪个国家、经济体或产业部门 , 各方都把公平作为算法治理的一个起点性要求 , 但实际上关于什么是算法公平 , 大家却没有共同可接受的内容 。 ”陈玲认为 , 公平有不同的定义 , 至少应先建立一个基础框架 , 从共识的角度去理解“可接受公平” 。
公平可分为起点公平、过程公平、结果公平 , 陈玲建议针对不同阶段的公平来制定相应的公平准则 。 “例如 , 我们将数据作为起点公平的对象 , 首先我们希望用于训练算法模型的数据集本身是完整的 , 数据集不偏向于男性或女性、白人或黑人等 。 其次 , 数据集应当是开放的、用户可以自己选择进入或退出数据集 。 若数据集完整且开放 , 至少可以在最低限度上保证算法的起点公平 。 ”陈玲称 。
在陈玲看来 , 算法程序的透明、可追溯、可问责 , 有利于促进算法的过程公平 。 例如通过企业内设的算法伦理委员会或外部监管机构 , 可以核查、追溯到算法任意模块或环节的问题 , 进而确定每一个模块或环节的可问责对象 , 这可以在最低限度上确保算法的过程公平 。
“结果公平是人们最直观、最朴素的公平诉求 。 人们看到的算法推荐或AI决策 , 希望这些是可计算、可预期和可解释的 。 ”陈玲举例称 , 很多时候人们可以接受一些歧视定价或者专门推荐 , 比如保险的差别定价 , 本质上是因为它符合人们的预期 , 而不是结果均等 。 “所以 , 算法推荐结果的可计算、可预期、可解释 , 而不是决策结果的均等化 , 是结果公平的最低起点 。 ”
那么如何建立一个可接受公平的整体框架?在陈玲看来 , 可从数据、算法、人类行为三个层面入手 。 “数据的完整性、准确性、开放性 , 算法的透明、可追溯和可问责 , 结果的可计算、可预期、可解释 , 这是大家可接受的公平底线;那些尚存争议或技术上有待解决的部分 , 可以作为算法公平的调适区间 , 随着调适水平提高 , 算法公平的共识底线也可以逐步提高 。 ”
那么 , 算法公平的规则体系具体该如何落地?陈玲表示 , 法律提供了一个最低限度的公平底线 , 算法伦理的要求往往高于法律 。 可以从私法、公法、全球秩序三个层面来研究现有法律体系的规制现状 , 找到可接受公平的共识起点 。

推荐阅读