秀秀科技|谁来念“紧箍咒”?,如果AI是孙悟空( 二 )


因此 , 要打造负责任的AI , 确保其决策透明 , 尤其需要开发可翻译、可解释的人工智能模型 , 以了解人工智能是如何做出这些决策的 。
03
数据和算法为当前重点治理对象
现在 , 在AI领域进行战略性布局的国家日益增多 , 各国的治理原则逐步转向可落实的框架 。
中国是AI发展的高地 , 2019年6月 , 国家新一代人工智能治理专业委员会正式发布了《新一代人工智能治理原则——发展负责任的人工智能》 , 提出了中国在人工智能治理的框架和行动指南 。
秀秀科技|谁来念“紧箍咒”?,如果AI是孙悟空
文章图片
图源/中华人民共和国科学技术部
而在此次世界人工智能大会上 , 新成立了上海国家新一代人工智能创新发展实验区专家咨询委员会治理工作组 , 同时发布了“协同落实人工智能治理原则的行动建议” , 发展“负责任的人工智能” , 提出“一平台、四工作、四体系”的系统落实人工智能治理原则的行动方案建议 , 其中“四体系”是指评估体系、监管体系、人才体系、保障体系 , 包括研发AI合规的指标体系和测试平台、建立公开透明的人工智能监管体系、在AI专业开设治理相关课程等 。
在王迎春看来 , 这些建议和规范既要保护相关企业创新的火力 , 也要促进AI更加健康地发展 。 “过去 , AI以效率有限 , 现在开始进入健康和高质量的发展阶段 。 ”
但是 , 中国在人工治理方面也面临着不小的挑战 。 清华大学苏世民书院院长、国家新一代人工智能治理专业委员会主任薛澜在世界人工智能大会上表示 , 数据治理、算法正义、权责划界是主要挑战 。 “现有的治理体系中缺乏对数据权属和使用的清晰规定 , 数据和隐私保护问题突出;算法监督能力薄弱 , 引发算法歧视的原因通常难以跟踪;互联网平台中个性精准化的服务实际上将市场分割成了一个个独立的个体 , 隔断了消费者的搜寻行为 , 而平台是唯一的‘知情者’ 。 ”薛澜说 。
对此 , 薛澜建议 , 未来 , 中国要加强基础研究降低技术风险、建立多元共治的人工智能伦理治理体系、明确把数据和算法作为当前重点治理对象、结合具体应用场景规范人工智能伦理、利用技术和规范并行推动提高治理能力 。
04
技术必须放到场景里
实际上 , 不仅是政府相关部门 , 和AI相关的企业也在不断加强人工智能治理方面的研究 , 科大讯飞董事长刘庆峰表示人工智能既要人机合作 , 更要法律、伦理协同进步;今年1月 , 旷视宣布成立AI治理研究院 , 并发布《全球十大AI治理事件》 。
秀秀科技|谁来念“紧箍咒”?,如果AI是孙悟空
文章图片
图源/网络
最近 , 海内外对人脸识别技术有诸多讨论 , 包括被应用到什么场景、对于数据隐私安全的保护等 。
《IT时报》采访人员从旷视了解到 , 对于算法的公正性、公平性和人脸识别的技术在什么场合下使用是符合伦理应用准则的 , 旷视计划在未来一年中能够做一到两个深度研究 。 “我们要对重点议题进行深度研究 , 数据安全和隐私保护是重中之重 。 旷视已经联合北京智源人工智能研究院开展研究 , 预期将形成一套面向数据全生命周期保护 , 针对采集、传输、存储和使用四个环节的AI基础平台 , 建立一套相关的AI数据安全与隐私保护机制 。
同时 , 旷视承建图像感知国家新一代人工智能开放创新平台 , 希望通过平台把AI治理的研究成果和企业应用实践经验与产业界分享 。 ”旷视联合创始人、董事长兼首席执行官印奇透露 。
“技术的讨论不能就技术而技术 , 而必须放在场景里来讨论 。 这些考量点会使得技术无论在被研发的时候 , 还是将来产品化的时候必须有一些考量因素要前置 。 ”旷视首席运营官、AI治理研究院院长徐云程近日在接受媒体采访时这样表示 。