客户端
游戏
无障碍

1

评论

收藏

1

手机看

微信扫一扫,随时随地看

人类被算法支配?专家:算法不应根据个性化因素产生不同决策

图片
7月8日,2021世界人工智能大会在上海开幕。
当日下午,在隐私计算学术交流会上,蚂蚁集团资深副总裁周靖人就数据权属问题展开讨论,认为消费者在平台购买商品产生的行为数据的主体涉及个人和平台等。且这种数据在流通和分享的过程中需保护所有主体的权益——站在消费者的角度,即为保护他们的隐私权等;站在平台的角度,则为保护知识产权等。
行为数据的主体包括个人、平台等
如今,数据已和土地、资本、技术、劳动力并列成为生产要素,国家也要求加快培育数据要素市场,核心内容则是数据要素的流通共享和核心价值的挖掘。
然而,传统基于所有权转让的交易模式受困于数据确权、数据定价等问题而无法规模化落地。所以,学者、业界等一直在研究数据确权的问题。
在周靖人看来,数据主要分为以下几类:第一种是基础数据,如个人的年龄、信誉等客观描述个人的数据,主要归属于个人。
另外一种是行为数据,比如消费者在平台购买商品,采用服务等产生的数据。这类数据涉及多个数据主体,包括个人、服务提供方和平台。
并且,这些数据主体相辅相成——比如消费者购买了一杯饮料,通过对饮料属性(口味、价格等)的全方位分析,可以影响服务提供者和平台对消费者的理解;反过来,消费者的喜好则会影响饮料的开发设计,影响服务提供者和平台的规则制定。
此外,平台可以更详细地记录消费者的喜好,更深入地挖掘数据的价值。而实现这些功能与平台的技术投入、实力是密不可分的。
所以,周靖人认为,行为数据的产生涉及各个参与方,权属划分应考虑各个主体。他还强调,使用数据或多或少会影响到所有的数据主体,需在数据流通和分享的过程中保护所有主体的权益——站在消费者的角度,即为保护他们的隐私权等;站在平台的角度,则为保护知识产权等。
算法不应根据个性化因素产生不同的决策结果
大数据时代,人们有一种莫名其妙被算法支配的感觉。交流会上,周靖人还就算法带来的公平、可解释性和隐私安全问题展开讨论。
他认为,算法模型的可解释性和隐私在某种程度上是相矛盾的。为了达到可解释,往往需要披露模型的决策点和边界条件,这一定程度上会暴露隐私。而算法从“黑盒”向“白盒”的过渡,即变得更加可解释,则会促进公平性。
他尝试引入社会学理念解决上述问题——有三个不同身高的小孩站在围栏前观看足球比赛,平台可采取不同的处理方法:第一种是治理均等,即对三位小孩一视同仁,要么同时给他们垫一个小板凳,要么都没有;另一种是结果平等,给身高矮的小朋友垫一个凳子,让三位都能看到足球比赛;还有一种方法是找到导致不同结果的因素,并把这些因素去除,就能平等对待每个个体。
“如何把上述理念应用到算法当中、映射到数据模型上,则是面临的挑战。”周靖人强调,算法不应该根据个性化因素、敏感因素而受到强烈波动、产生不同的决策结果,这和结果均等的理念是一致的。
文/南都个人信息保护研究中心研究员尤一炜
免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部