人工智能治理如何上升到顶层( 二 )


?Amazon SageMaker Model Monitor持续监视AWS Sagemaker云计算服务中的机器学习模型 , 检测诸如数据漂移之类的偏差 , 这些偏差会随着时间的推移降低模型性能 , 并警告用户采取补救措施 , 例如审核或再培训模型 。 可以安排监视作业按常规节奏运行 , 可以将摘要指标推送到Amazon CloudWatch以设置警报和触发器以采取纠正措施 , 并支持Amazon SageMaker支持的多种实例类型 。
?Superwise的人工智能保证提供了一个实时平台 , 用于监控和维护已部署人工智能模型的准确性 。 它使涉众能够在部署的人工智能模型产生负面业务影响之前发现模型衰退和其他问题 。 它标记了模型的不精确性 , 这些误差源于人工智能模型的数据变化 。 它还可以捕捉到与模型部署到的业务环境中的变化相关联的不精确性 。 它为数据科学团队提供了前瞻性的建议 , 以采取人工操作来保持模型的准确性、公正性以及其他方面的适用性 。 它还可以自动执行一些纠正措施 , 以防止模型漂移到潜在的次优领域 。
结论
虽然人工智能并不是公众的威胁 , 但现实情况是 , 可能会看到更多的司法管辖区加强了这项技术的监管规定 。
随着人们进入20世纪20年代 , 从最好的和最坏的意义上讲 , 人工智能应用将是最具颠覆性的技术 。 如果扩散不受监控和控制 , 则错误的人工智能模型将给社会造成严重破坏 。 人工智能的某些风险来自技术特定构造中的设计限制 。 其他原因可能是由于对实时人工智能应用程序的运行时管理不足 。 还有其他一些可能是该技术难以理解的机器学习、深度学习和人工智能依赖的其他统计模型的“黑盒”复杂性所固有的 。
【人工智能治理如何上升到顶层】为了减轻这些风险 , 组织将越来越多地要求在每个部署场景中对这些模型的性能进行自动化治理 。