光明网社会|高校数据治理常见挑战与对策( 二 )
2.如何确定谁能访问什么数据:正确的问题不是这个业务是否需要这个数据 , 而是获取这个数据是否会给大学带来风险 , 因为数据治理的目的是为了支持更广泛地使用数据 , 为了避免使用数据带来的风险 , 要加强对能够获得数据的人进行培训 。 当数据可能对大学造成重大伤害时 , 要有严格的限制 。
挑战3:如何获得各部门系统的数据?
不少学校在开展数据治理的时候 , 会遇到部门数据共享的问题 。
一方面 , 一些部门不愿意分享所管理的数据 , 比如 , 认为拥有某些数据是特权 , 或担心数据安全;
另一方面 , 即使部门愿意共享数据 , 信息系统之间数据互通也会有技术障碍 , 比如 , 学校的信息系统有些是采购或定制的 , 供应商往往不太愿意做数据开放或数据导出接口 , 即使学校愿意在这方面做追加投资 , 也需要逐个系统去谈 。
有些系统有数据导出功能 , 可以定期导入到数据分析工具中 , 只是这些数据在利用时很难做到及时更新 。 数据需要在整个机构内共享——分析不应该以竖井的形式进行 , 也不应该被视为机构内部门的独有特权 。
文章图片
范德比尔特大学(VanderbiltUniversity)建立了“自动数据质量流程” , 其信息系统能够识别数据输入错误 , 所有数据问题最终都由学校数据治理团队(institutionaldatagovernanceteam)解决 。 根据大学的说法 , 该团队的任务是“建立数据治理政策、程序、标准和指南” , 以最大化学校数据的价值 。
挑战4:数据使用边界与伦理
使用学生数据进行学习分析会在多大程度上引发有关学生数据隐私的问题?
高校如何使用和共享这些数据?
如何审查依据数据的行动是否有伦理风险?
当机器学习算法出错 , 无意中引导学生走向错误的方向时 , 会发生什么情况?
目前有很多数据分析项目是基于历史数据而做预测分析 , 但所有预测模型都受人类判断的影响 , 数十年来对隐性偏见的研究表明 , 潜在的认知偏见和系统性种族偏见 , 既影响数据模型的设计 , 也影响对研究结果的解释 。 比如 , 预测模型如果过度依赖关键的学生人口数据 , 如财务状况、家庭经济状况、种族、性别或文化背景 , 很容易使教育机会存在的历史性结构不平等永久化 。
预测分析模型另一个潜在偏见是“确认偏见” , 当设计预测模型的人倾向于寻找并使用信息来支持他们自己已有的想法或信念时 , 就会发生这种情况 。 在这些情况下 , 不能支持他们思想的信息将被忽略或丢弃 , “确认偏见”既会影响选择(或未选择)的数据类型 , 也会影响对那些数据相关的解释 。 因此 , “深入理解分析方法背后的假设”至关重要 。
消除预测模型中偏见的一个方法就是承认它 。 要认识到数据的选择、模型的定义、对发现的解释 , 以及基于这些模型采取的行动不可避免地受到“隐性偏见”的影响 。 在数据上贴上预测分析标签并不能确保判断错误不会发生 , 也不能减轻这样一个事实 , 即这些偏见在多样性背景下是极其成问题的 。 因此 , 我们必须不断挑战数据的来源、假设、数据收集方法、数据的解释和使用 , 特别是当数据涉及代表性不足群体或少数民族群体方面时 。
在高等教育中 , 我们不仅要注重模拟结果的轨迹 , 还要注重改变或破坏现有状态结果的创新方法 。 在继续推进数据驱动决策和预测模型分析的同时 , 必须牢记数据是可能有偏见的 。
数据治理项目成功关键
已经有一些数据分析项目获得成功的高校总结出以下成功经验:
01.管理层支持
学校管理层是真正希望获取数据 , 并努力尽可能多地使用这些数据 。 为此 , 要专门成立数据治理管理机构 , 组织人力花时间有效地挖掘数据 。
- 辅助行走的老人智能搀扶机器人设计
- 项目|科技成果如何转化?这场比赛中,看高校学习如何给出他们的答案
- 无现金社会到底有多危险?欧美发达国家,纷纷远离微信支付宝
- 智能机器人研究方向年仅24岁的211高校副教授,他的秘诀是?
- 华为高管证实:中国5G用户体验“假,哑,差”,与社会观感不符
- 你的大学能叫外卖了吗?饿了么现已入驻1000所高校食堂
- 科技小辛辛|广州联合快手推出高校直播电商人才培养计划
- 光明网|人见人爱的机器人带给你满满的安全感
- 光明网社会|微信突然变化!苏有朋深夜发博...
- 华为|9大高校校长前后来华为,任正非:我们来解决“卡脖子”你们不管