金台资讯我们需要什么样的“算法”?( 二 )


9月中旬 , 微博上发起的一个投票显示 , 有1.5万人认为自己遇到价格明显差异的情况 , 占所有投票人员的近八成 。
“算法”是中性的 , 问题出在人身上
算法技术的重要意义在于 , 将此前基于人力的“人找信息”转变成基于电脑自动化运算的“信息找人” , 既极大解放了人力 , 又更高效地完成了人和信息的匹配 。
从2012年起 , 互联网平台****在业内较早将算法推荐系统应用到资讯领域的产品中 , 实现了系统的自动学习推荐 。 据****算法架构师曹欢欢介绍 , 推荐系统综合考量内容特征、用户特征、环境特征等因素进行决策 。 例如 , 环境特征包括上班期间、上班路上、下班休息等不同场景下用户的兴趣偏好信息 。
为帮助用户发现更多兴趣点 , ****不断引入多领域的优质内容生产者 , 并运用算法推荐给用户;推出“灵犬”反低俗助手 , 剔除低俗信息 。 推荐系统还增加了消重和打散策略 , 前者旨在消除内容相似文章推荐 , 后者降低了同领域或主题文章的推荐频率 。
不过 , 在头部互联网平台切实严格自律的同时 , 仍有一些采编流程不规范、管理不严的网络社交媒体、新闻客户端在业务导向上走偏了 。 主要表现在:
——向用户推荐劣质信息 。 部分平台为留住用户 , 不断向用户推荐其关注过的相似内容 , 其中掺杂低俗媚俗、色情暴力、真假难辨、缺乏深度、价值观导向错乱等信息 。 一些互联网平台为增加点击率和流量 , 还会进行人工推荐 , 主动推荐“博眼球”、打“擦边球”信息 , 很多用户直呼“辣眼睛” 。 这反映出一些平台社会责任感缺失 , 更忽视了价值观建设 。
——增加用户权益保护难度 。 一些算法推荐的内容过度强化用户偏好 , 影响了用户对于信息内容的自主选择权 , 加剧“信息茧房”效应 , 极易造成个体与社会的隔离 , 缺乏对当下国情世情的深刻认识和判断 。 由于依托于用户浏览记录等数据 , 算法推荐若设计不当 , 还可能侵犯用户个人隐私 。
——进行“大数据杀熟” 。 中国传媒大学大数据研究中心教授沈浩介绍 , 对于算法而言 , 通过用户数据量以及数据更新频次 , 可轻易判断出是“生客”还是“熟客” 。 结果是平台大赚 , 商家、消费者利益受损 , 还容易导致垄断 。
作为一项技术应用 , 算法推荐是中性的 , 问题出在设计者、操作者身上 。
一方面 , 奉行“流量至上”的单一价值导向 。 一些平台为应对竞争 , 将用户停留时间作为重要考核指标 , 忽视了自身作为“把关人”的角色定位 。 而“把关人”必须用积极健康、符合公序良俗的价值观 , 指引算法推荐的设计和应用 , 方能确保推送内容价值导向正确 。
另一方面 , 过度追求“利益至上” , 利用其信息不对称优势侵犯消费者合法权益 。 这是一个需要引起足够重视的法律问题 。
“一些算法的顶层设计思路存在问题 。 ”中国社科院信息化研究中心主任姜奇平对采访人员表示 , 英国著名数学家、逻辑学家图灵等学者在勾画人工智能图景时提出 , 人和机器是对等、双向互进的关系 , 但现在一些算法设计呈现出人与机器的关系是单项的 。 比如在大数据方面 , 迷信相关分析 , 忽略因果分析 。 在定义算法效率方面 , 只把专业化效率定义为效率 , 而实际上多样化效率也是一种效率 。
大数据、算法推荐应更有“温度”
有网友最近在一个问答平台发文称 , 自己在某社交平台和朋友聊天时提到了一款扫地机 , 随后该平台出现了扫地机器人的广告 。 在跟帖中 , 很多网友疑问:“平台是否可能利用算法等技术 , 抓取用户聊天记录进行广告精准投放?”
App专项治理工作组专家何延哲今年9月表示 , 四部委App专项治理工作组在对App多批次检测中尚未发现App有“窃听”行为 。 但App“窃听”在技术实现上是有一定可能性的 , 相关部门有必要出台规定 , 明确企业进行大数据“画像”时能否使用个人语音信息 , 让用户更放心 。