用户体验已成过去时 AI要从公民乃至社会的角度去思考问题

时至今日 , 科技巨头及其基于AI的数字平台与解决方案 , 完全有能力影响全球领导人、民族国家、跨国企业、全球股市乃至每位个人的命运 。
目前 , 各大主要数字平台的建立者、以及各类AI系统的设计人员与开发人员 , 仍然在将个人视为用户、客户或者数据点 , 但却常常忽略个人作为公民的角色与权利 。

用户体验已成过去时 AI要从公民乃至社会的角度去思考问题
文章图片
结果就是 , 个人用户及客户被从社会背景下彻底剥离出来 , 并引发了可怕的后果 。 这些个人可能会在不自觉中成为错误信息的传播载体得不到第一手正确信息的使用者有可能被拉拢为暴力叛乱分子而在申请工作或更新保险订单时 , 用户也有可能遭到有偏见AI系统的不公平对待 。
为什么要推动公民体验设计?
如今 , 随着AI解决方案的社会影响日益明显 , 我们需要从公民乃至社会的角度考虑AI技术的效果以及设计/开发原理 。
通过种种现实证据 , 我们已经意识到有偏见的AI系统正在给医疗保健、科学研究、刑事司法乃至金融服务等各个领域带来严重影响 。 此外 , 我们也一直在见证关于数据权利与惯例的积极发展 。
但仅从GDPR或数据治理计划等角度出发对高科技企业进行监管 , 显然还远远不够 。 同样的 , 对新兴算法的审计方法还不够成熟 , 不足以直接影响AI的开发及其实践 。 当前的AI道德委员会甚至没有能力快速、成规模地调整AI发展的具体方向 。
只有确保以公民为中心的价值观与原则对AI解决方案的设计与开发加以引导 , 才有可能对AI领域施加有效且可持续的正确影响 。
以往 , “公民体验”仅被划为纯公共服务领域 , 但仅此而已 。 今天 , 我们需要一种更全面、更多以公民为中心的方法 , 并据此构建起面向每一位AI设计师及开发人员的通用工具箱 。
具体而言 , 我们需要这种秉持以公民为中心的思维与行动方针的AI企业、数据科学家与设计师 。 我们还需要公民体验专家 , 将对社会的认知纳入产品构思、设计以及开发的核心环节当中 。
如何构思AI的公民体验设计问题
那么 , 我们怎样才能为公民体验设计的可持续性实践 , 创建起一套能够真正将个人视为公民、并融入广泛社会结构的AI解决方案框架?
首先 , 公民体验设计需要跨学科努力 , 包括将社会科学、数据科学与设计思路结合起来 。 公民体验设计还对数据素养与算法素养提出了更高要求 , 包括要求了解不同数据中的利弊、评估应用程序以及不同算法带来的潜在影响 。 而这项目标 , 必须通过多学科交叉形式实现 。
其次 , 公民体验设计应帮助设计师及开发人员将个人视为公民用户与公民消费者 。 公民体验设计还需要提供具体工具 , 帮助开发者将个人视为真实的个体 , 帮助企业在更广泛的社会背景下评估自身产品决策 。 这些工具还有望在用户体验与客户体验层面 , 提供更深刻的数据科学设计与实践洞见 。
第三 , 公民体验设计应该覆盖到产品设计与开发的所有要素 , 包括用例与目标设置、应用指标与用户界面设计、数据管道及AI技术选择、乃至用户研究与分析等等 。
第四 , 必须与公民一起制定公民体验设计的基本原则 。 这些共同建立的实践将带来新的洞见 , 并将公民作为活跃力量引入这场AI变革的核心当中 。
公民体验设计的基本原则
一切均始于此:AI从业者首先应承认个人的身份 , 即成熟公民的身份 , 并相应予以尊重与关照 。 永远不应脱离社会背景 , 在孤立产品或平台当中考虑AI解决方案 。
下面来看关于迭代的更多具体建议:
AI系统的设计与开发应强调维护公民权利 。 算法应以负责任且透明的方式创建完成 , 且AI系统不应根据公民的身份对其做出区别对待、或损害其豁免权或完整性 。
以安全、负责的方式处理公民数据 。 AI系统不应以不必要的方式收集个人数据 , 或在未经明确同意的前提下使用个人数据 。 同样 , 当公民与AI系统交互或受后者影响时 , 必须明确向公民发出通报 。 AI系统绝不应愚弄或操纵公民 , 例如通过伪装为人类、或诱导不健康行为的方式在推荐系统中愚弄或操纵公民 。
在从公民角度出发考量AI系统时 , 必须对数据的个人控制视为数字产品需要遵循的基本特征 。 将公民隐私权设定为最核心的权益 , 即可保证基于AI的监管系统不以任何不必要的方式触及这部分信息 。
AI系统不应促进任何有违现有法律或其他公民权利的行为 。 AI系统必须尊重现有法规与公序良俗 。 简而言之 , AI设计人员、开发人员或其AI解决方案不应独立做出好坏、公平、适度或合法等层面的判断 。