算法|陈旭:不同个体对公平诉求有别 应根据人的性格调整推荐算法模型

中新经纬3月24日电 (薛宇飞)近日 , 由中国人民大学高瓴人工智能学院、智能社会治理跨学科交叉平台和基于大数据文科综合训练国家级虚拟仿真实验教学中心联合主办的算法公平性与内容生态建设研讨会在线上举行 。 中国人民大学高瓴人工智能学院助理教授陈旭指出 , 不同性格的人对公平性的诉求是不一样的 , 因此 , 在构建机器学习模型或者推荐系统模型时 , 可以把人的性格因素考虑进来 。
陈旭称 , 算法公平性很重要的一个点在于 , 它是不是真正被人们感知到了 。 “人们在购物时是不是真的感受到了不公平?不同的人对公平性的需求是否一样?不公平性是否给他带来了困扰?讨论这些问题的原因在于 , 有的人对公平性的需求没有那么大 , 有的人却很大 。 ”
陈旭借助心理学上的一些概念 , 也初步证实不同性格的人 , 对公平性的诉求是不一样的 。 由此 , 他构想 , 在构建机器学习模型或者推荐系统模型时 , 可以把人的性格因素考虑进来 。 对于公平性诉求没有那么大的人 , 可以把公平性约束放得宽一些 , 这样的话 , 可以让推荐系统的性能得到更好提升 , 或者是对性能约束没有那么大 。
【算法|陈旭:不同个体对公平诉求有别 应根据人的性格调整推荐算法模型】“我觉得对于公平性来讲 , 尤其互联网上的用户这么多 , 不同用户的人格、性格肯定不一样 , 推荐算法中加入性格因素 , 会对公平性是一种比较好的度量 。 ”他说 。
他还称 , 算法的公平性会受到敏感变量的影响 。 “在大多数研究中 , 都围绕着一种敏感变量探因 , 比如说性别是男或女 , 是活跃用户还是不活跃用户 。 但当敏感变量变得很多的时候 , 公平性问题就变得很复杂 。 不同敏感变量之间 , 可能还存在着矛盾 , 或存在着一致性 。 在一个敏感变量上达到了公平 , 可能在另外一个敏感变量上就不公平 , 如何解决这种矛盾?”
陈旭举例称 , 某购物网站大多数用户都是女性 , 这种情况下 , 如果我们对活跃用户指标做公平性时 , 那它对性别这一敏感变量很有可能是不公平的 , 在构建敏感变量图时 , 不同敏感变量只有找到真正影响最终预测结果的那个公平的点时 , 才叫比较公平 。 因此 , 这是未来需要考虑得比较多的地方 。
“当敏感变量从几个变到几十个 , 甚至变到几百个的时候 , 问题就会更加凸显 , 可能还会出现一些矛盾 。 比如 , A和B的关系是一致的 , A和C是不一致的 , B和C又是一致的 , 这种情况下很难达到平衡 , 就需要做帕累托自由这方面的约束 。 ”他分析称 。 (中新经纬APP)
中新经纬版权所有 , 未经书面授权 , 任何单位及个人不得转载、摘编或以其它方式使用 。

    推荐阅读