按关键词阅读: 系统 推荐 信息 算法 报告 用户 内容 研究 数据 朱倩
中新经纬客户端6月25日电 (薛宇飞)近日 , 由中国人民大学高瓴人工智能学院等单位主办的“推荐算法社会价值与可持续发展”研讨会在中国人民大学举行 。 会上 , 国内首份算法科普性报告《算法向善与个性化推荐发展研究报告》(下称《报告》)发布 , 中国人民大学高瓴人工智能学院博士后朱倩男分享了相关研究成果 。
文章插图
中国人民大学高瓴人工智能学院博士后朱倩男 主办方供图
当前 , 推荐算法在给工作生活带来便利的同时 , 也引发了信息茧房、算法黑盒、算法偏见等争议问题 。 据朱倩男介绍 , 此次发布的《报告》希望以一种通俗易懂的方式让大众了解什么是推荐系统 , 通过分析推荐系统面临问题的原因 , 让公众了解推荐系统在这些问题中到底扮演者怎样的角色 , 以及是否需要对这些问题的产生负责 。 她希望通过报告提高大众对推荐系统的认知 , 消除大众对推荐系统的误解以及不安心理 。
在对“信息茧房”问题的研究中 , 将推荐结果多样化是学术届的主流研究方向 。 主要是从多个角度探索和挖掘用户多样性兴趣 , 使推荐结果更加丰富和多样化 。 在工业界 , 很多互联网企业也在积极解决信息茧房的问题 , 比如抖音的“同城窗口”和“关注窗口”会给用户提供从信息茧房中走出去的机会;今日头条的“热榜”模块会给用户推荐国家大事、新闻要事 , 帮助用户接触到更多的信息面 。
朱倩男表示 , 推荐系统不会自主地产生信息茧房 , 信息茧房一直就有 , 不是一个新的现象 。 只不过进入人工智能时代 , 信息茧房的现象被显性看见 。 “我们给出了一些建设性的意见 , 比如增加推荐结果多样性 , 优化推荐算法机制 , 增加人工干预来提高推荐结果的质量 。 ”她说 。
对于如何规避“算法黑盒”的问题 , 朱倩男介绍说 , 第一个是推行算法披露机制 , 提高算法透明度 。 第二是加强对可解释性推荐算法的研究 , 通过建立通用的推荐算法框架来提高算法的可解释性 。 算法黑盒会带来可解释性差的问题 , 朱倩男认为这是一个正常的问题 , 这是人工智能时代发展过程的中间状态 , 随着政府、研究机构以及公众对推荐算法的关注 , 对算法透明度和可解释性的研究会是今后的热点 。
对于“虚假新闻和低俗内容泛滥”问题 , 目前学术界大部分的工作是研究新闻的形成原因以及路径 , 从这两个方面规避虚假新闻和低俗内容的传播 。 聚焦到工业界 , 一个典型的案例就是今日头条采用人工和模型双重结合机制 , 建立一些鉴黄、反低俗等模型 , 来过滤那些负能量的内容 , 从而规避虚假新闻和低俗内容的广泛传播 。
针对“算法歧视与偏见”问题 , 目前学术界的做法侧重解决数据和算法自身携带歧视问题 。 对于工业界来说 , 目前对于解决歧视与偏见问题处于起步阶段 , 后面还要探索 。 朱倩男称 , “推荐算法会存在歧视与偏见 , 归根到底是对于数据不完全解读造成的 , 比方说对于数据本身可能含有一些歧视性、不完整信息 , 就会造成推荐系统有些不公平现象的产生 。 同时 , 我们也列了一些规避算法歧视和偏见的措施 , 比如建立一个算法追责机制 , 对事故主体进行确认并追责 。 ”
对于“用户隐私与安全”问题 , 朱倩男表示 , “推荐算法设计本身并不会造成用户数据隐私的泄露 , 更多可能是在数据传输或者存储过程中造成用户隐私泄露 。 目前学术界主要采取的是数据扰动方法来规避用户数据泄漏 。 我们在文章中写了一些关于保护用户隐私与安全的措施 , 包括用户数据保护、推荐结果保护和预测模型保护 。 ”
朱倩男介绍 , 报告对产业界的典型案例做了分析 。 以今日头条资讯推荐为例 。 该推荐系统主要采用一些推荐算法 , 如深度学习、协同过滤推荐、有监督学习等 , 对资讯内容、用户特征和环境特征三者融合 , 做个性化精准推荐 。 现实场景中 , 今日头条面对的数据量非常大 , 它采用了Storm集群和千级别召回策略来对用户推荐的内容进行实时更新 。 重要的是 , 内容安全一直是今日头条比较关注的 , 有专门的内容审核团队和机器学习算法对内容进行鉴别 , 以确保内容的安全性 。 (中新经纬APP)
【推荐|朱倩男:推荐系统不会自主产生信息茧房 需将算法优化与人工干预结合】中新经纬版权所有 , 未经书面授权 , 任何单位及个人不得转载、摘编以其它方式使用 。
稿源:(未知)
【】网址:/a/2021/0625/06251145C62021.html
标题:推荐|朱倩男:推荐系统不会自主产生信息茧房 需将算法优化与人工干预结合