最近几天,由中国人民大学高瓴人工智能学院,智能社会治理跨学科交叉平台和基于大数据文科综合训练国家级虚拟仿真实验教学中心联合主办的算法公平性与内容生态建设研讨会在线上举行中国人民大学高瓴人工智能学院助理教授陈旭指出,不同性格的人对公平性的诉求是不一样的,因此,在构建机器学习模型或者推荐系统模型时,可以把人的性格因素考虑进来 陈旭称,算法公平性很重要的一个点在于,它是不是真正被人们感知到了人们在购物时是不是真的感受到了不公平不同的人对公平性的需求是否一样不公平性是否给他带来了困扰讨论这些问题的原因在于,有的人对公平性的需求没有那么大,有的人却很大 陈旭借助心理学上的一些概念,也初步证实不同性格的人,对公平性的诉求是不一样的由此,他构想,在构建机器学习模型或者推荐系统模型时,可以把人的性格因素考虑进来对于公平性诉求没有那么大的人,可以把公平性约束放得宽一些,这样的话,可以让推荐系统的性能得到更好提升,或者是对性能约束没有那么大 我觉得对于公平性来讲,尤其互联网上的用户这么多,不同用户的人格,性格肯定不一样,推荐算法中加入性格因素,会对公平性是一种比较好的度量他说 他还称,算法的公平性会受到敏感变量的影响在大多数研究中,都围绕着一种敏感变量探因,比如说性别是男或女,是活跃用户还是不活跃用户但当敏感变量变得很多的时候,公平性问题就变得很复杂不同敏感变量之间,可能还存在着矛盾,或存在着一致性在一个敏感变量上达到了公平,可能在另外一个敏感变量上就不公平,如何解决这种矛盾 陈旭举例称,某购物网站大多数用户都是女性,这种情况下,如果我们对活跃用户指标做公平性时,那它对性别这一敏感变量很有可能是不公平的,在构建敏感变量图时,不同敏感变量只有找到真正影响最终预测结果的那个公平的点时,才叫比较公平因此,这是未来需要考虑得比较多的地方 当敏感变量从几个变到几十个,甚至变到几百个的时候,问题就会更加凸显,可能还会出现一些矛盾比如,A和B的关系是一致的,A和C是不一致的,B和C又是一致的,这种情况下很难达到平衡,就需要做帕累托自由这方面的约束他分析称 |
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。