人工智能|聚焦AI治理|产学界呼吁构建统一的AI模型安全评估准则( 二 )


【人工智能|聚焦AI治理|产学界呼吁构建统一的AI模型安全评估准则】他认为 , 当前人工智能系统必须使用大量数据训练算法 。 如果训练数据是有偏见的或不完整的 , 人工智能系统将会显示有偏见的行为 。 因此 , 人工智能开发应该对数据质量有合理的控制 。 但数据并不是偏见的唯一来源 , 解决算法偏见还需要AI从业人员秉持伦理价值 。 此外 , 人工智能开发与隐私保护存在紧张关系;在影视制作、社交、娱乐、教育、电商等领域具有很大正向应用潜能的深度合成也可能被滥用来进行违法活动 。
为解决这些问题 , 曹建峰给出了四点建议 , 人工智能与数据产品开发需要遵循“通过设计的伦理”(ethics by design)理念 , 将公平、安全等伦理价值融入产品设计全周期 , 并有防止滥用的保障措施;二是在企业、国家乃至国际层面建立负责任的人工智能开发和数据使用的道德准则;三是在国际社会分享最佳实践经验;四是业界需要探索开发隐私保护型的AI技术方法 , 如联邦学习等 , 来在隐私保护与数据利用之间实现更好平衡 。
吴沈括:国际社会需面对数据违法行为带来的法律漏洞
北京师范大学网络法治国际中心执行主任吴沈括在会上表示 , 国际社会需要面对新技术环境下数据违法行为带来的新挑战和法律漏洞 。
首先 , 由于不同地区、国家法律法规的缺失和差异 , 普遍导致对新型数据违法行为司法规制不足 。 其次 , 各国现行法律制度框架尚不能充分保障跨境证据收集与交换的快速高效 。 最后 , 在网络匿名的背景下 , 一些国家的监测、预警和应急机制越来越难以有效应对脆弱性问题的快速增长 。 因此 , 在全球化深入发展的新时代 , 数据违法行为的跨国衍变要求更高水平的国际合作治理 , 建立信任世界 。
邓亚峰:不法分子利用AI会带来伦理问题
奇虎 360 人工智能研究院院长邓亚峰在会上总结了人工智能在数据安全方面存在的潜在威胁 。
首先 , 由于人工智能是快速出现的新应用 , 人工智能应用生产和部署的各个环节都暴露出了一系列的安全风险 。 其次 , 人工智能和大数据应用往往与大量隐私数据关联 , 这些数据往往需要被送到云端进行分析和计算 , 造成了比原来更严重的数据泄露和安全风险 。 第三 , 虽然从技术角度看 , 人工智能体很长一段时间都无法拥有真正的自我意识 , 但是 , 我们无法排除一些不法分子会对人工智能加以利用 , 而这会带来大量的社会伦理问题 。 最后 , 由于人工智能在短期内会造成一部分从事简单重复性工作的人类失业 , 这会引起一定的恐慌和排斥 。 此外 , 人工智能也因为技术的不成熟 , 会被认为在识别结果上存在一定的歧视 。
他认为 , 人工智能和数据安全是全世界都统一面临的问题 , 需要全世界的组织和个人联合起来一起行动 。
责任编辑:李跃群
校对:栾梦