按关键词阅读:
时代周报:突破内卷化的关键在什么地方?
孙萍:关键有三:
首先 , 要在社会和机构层面建立一套算法协商机制 。 目前平台是规则制定者 , 计算机科学家、程序员、架构师是平台规则的执行者 。 顶层架构如果不改变 , 平台算法的展现一直会是利益导向的 , 追求效益最大化 , 也会存在偏见 。 但如果我们把视野拉长 , 以外卖平台为例 , 在计算科学家、程序员、架构师之外 , 还应该让劳动者、消费者、社会组织、商家、政府和社会科学家以及无数在这个链条里看不见、但默默工作的人参与到算法的构建里 , 让他们的声音被听到;
其次 , 要在政府、工会的协助下 , 建立一个对话的体制机制 , 让工人、外卖员、商家、消费者的声音能够被听见;
最后 , 要引发社会情感总体上的共鸣 , 从社会情感角度去松动算法 , 让大家意识到宽容、包容的发展是可以实现的 。
陈玉洁:我认为可以延展开来讲的有两点:
第一 , 在实际操作上 , 倡导设计者走入劳动过程中 。 现在社会高度专业化 , 科技的发展给人们带来了很多便利 , 但同时也掩盖了背后的逻辑 , 让我们将很多事看作理所当然 , 而忽略了人与人之间的联系 , 尤其会忽略 , 我的生活依赖其他人的劳动这个事实 。 跟算法的设计者聊天 , 你就会发现 , 他们在描述 , 比方说整个外卖过程的时候 , 经常说 , 我们要建立一个交易闭环、改善场景、局部优化或全局优化体系 ,而这其中人是一种抽象的存在 。 当然不苛求他们天天投入劳动过程中 , 哪怕隔三差五体验1小时 , 感受人与人之间的相互依赖和联系 , 或许他们再回到高楼里做设计的时候 , 会考虑到多方实际情况 , 设计得更加灵活和包容 。
第二 , 高校的力量不可忽略 。 在教育和培养这些制定算法的人的时候 , 要扩展专业素养 , 容纳人文关怀 , 带来内生式的改变 。 换句话来说 , 突破学科壁垒 , 促进交融 , 让程序员在做设计的时候意识到 , 你做出来的东西 , 不仅仅要对公司负责 , 为公司带来利益 , 还应该具备一定的社会价值取向 。
谁困在囚笼里?
时代周报:平台算法的制定 , 要倾听弱者的声音 。 但整个内卷化的态势 , 从根本上是抛弃弱者的 。 这两者会不会产生一种无法解决的矛盾?
孙萍:唯一性是大家最喜欢追问的一个点 , 但恰恰有时候社会的发展并不遵循唯一性原则 。 算法的发展过程分很多阶段 , 包括人机交互、人机融合、深度态势感知等阶段 。 而我们现阶段对于算法的认知很大程度上受制于当下技术的发展阶段 。
现阶段我们将技术和人放在两个不一样的对立端来看 , 但如果将来人和技术融为一体的了 , 这个问题可能就会演变成其他新的问题 , 到时我们的思考角度又会改变 。 从特别长的历史视角来讲 , 人和技术的关系存在“玄之又玄”的互构性 。
时代周报:在算法中加入社会情感总体的共鸣 , 会不会影响算法的客观公正?
陈玉洁:现在暴露出来的一些问题 , 要用发展的眼光来看 , 未来可能会随着整个社会认知 , 包括情感和科技的发展而出现改变 。 通常情况下 , 我们都认为机器和科技都是非常冰冷的 , 是一种去情感化的存在 , 比人主观价值判断计算出来的结果更客观 , 进而呈现出一种对立 。 将来算法可能会不再是一个闭环 , 而是一个开环 , 会增加情感因素 。
科技以及人与科技之间的关系 , 包括人与科技之间的关系嵌入到社会中去时 , 社会到底要怎么发展?什么是客观公正的?这是一个最宏大的主题 , 涉及到如何定义科技的价值 。 我们现在认为大型科技公司一旦上市 , 公司的成功就是创新能力的体现 。 但是顶级的科技公司的发展也需要承担更多的社会责任 , 这是一种公共性 。 一旦把这种公共性纳入到公正的定义里 , 不管是公司的发展还是算法的设计 , 都会呈现出不一样的状态 。 也许将来如何设计公正的算法 , 就不是大家讨论的问题 , 而成了科技的设计者主动考虑的社会价值 。
稿源:(时代周报)
【】网址:http://www.shadafang.com/c/hn091492B4R020.html
标题:算法|短视频平台内卷化:大量公司已是僵尸壳,部分网红收入不及网约车和外卖员( 三 )