按关键词阅读:
文章图片
2014年至今 , FDA批准和认证了数十种医疗级AI技术或产品( 参见文章 ) , 这是否意味FDA对审评AI医疗产品已经心中有数 , 知道哪些AI是货真价实的AI技术或虚假AI产品?
经过疫情的洗礼 , 医疗健康产业界和AI技术研发机构坚信未来5年里 , FDA将面对海啸般AI为核心技术的医疗应用 , AI数字健康产品会越来越多进入临床应用和管理健康 。
上周FDA召开了AI医疗法规研讨会( 部分视频 ) , 针对AI和机器学习在算法偏差 , 数据透明性和保障用户从AI技术中平等获益等问题 , 与研发机构和产业界人士进行了沟通交流 。
AI医学系列讲座三
(11月1日周日晚8点 , Zoom视频)
文章图片
此次FDA研讨会的核心内容为我们正在进行的AI医疗讲座提供了最新内容;也更好地理解和把握AI医疗的发展趋势和前景 。
业界人士对FDA在AI技术和产品的审评和认可标准方面也提出了值得关注的具体建议 。
文章图片
FDA数字健康和AI技术部门负责人阐述了FDA如何评估AI技术驱动的或AI医疗级产品 , 目前FDA还没有明确规则 , 仍在不断完善之中 。
比如 , 对数据集大小或数据多样性仍没有一致要求 。 获得FDA批准临床应用的AI算法和ML分析方案 , 其验证的数据量差异很大 , 有些公司甚至没有报告相关数据信息 。 数据集信息也没有公开;AI技术在人口群体数据方面很难体现出多样性或分布状况 。
一些AI+ML技术和产品致力于临床诊断 , 诸如癌症、心脏病、糖尿病或痴呆症等 。 一旦AI产品进入临床应用并获得医保付费 , 其精准性和安全性以及在不同种族/人种方面保持效益一致性将面临新挑战 。
根除算法偏差
AI产品的数据集培训和验证应当包括不同种族 , 经济状况和地域患者的数据信息 , 否则 , AI技术有可能加剧治疗和获得医疗资源的差距 。 目前的AI产品仍然缺乏多样性 。
斯坦福大学专家发现基于图像的AI产品 , 其训练AI模型的数据没有充分代表不同人群和社区 , 这直接影响了AI的公平性和准确性 。
医学界专家和AI技术研发人员认为FDA有义务敦促AI研发应当包括基层社区卫生机构 , 面向绝大多数民众提供高质量的AI医疗和健康产品 。
此外 , FDA应当要求AI开发人员披露其数据来源 , 提供用于培训和测试其产品的人口及患者数据细节 。 AI技术的包容性和多样化取决于FDA指导制定的相关规则和要求 。
向患者告知AI产品的使用状况
FDA希望临床应用AI技术和产品时 , 应当告知患者 , 并让他们充分参与有关AI治疗决策 。
但是专家们说在某些情况下 , 医生甚至也不了解AI是如何分析患者疾病和作用的 。
FDA专家委员会认为 , 应该强迫AI软件开发人员解释收集和使用患者的数据 。 临床诊疗和临床研究中的知情同意不仅应适用于药品和医疗器械试验 , 也同样适用于使用患者疾病和健康数据的AI技术和产品研发 。
告知用户/患者AI系统更新
FDA面临的最大挑战之一是在批准认可之后 , AI产品不断更新修改如何告知患者或用户 。
诸如智能手机和便携式电脑等安装AI产品后 , 一般情形下厂家定期更新 , 有时候更新会导致数据类型或患者/客户使用方式的重大变化 。
专家认为 , 改善AI功能和相关用途如果对自动辅助诊断产生不同效果 , 比如更新AI软件使其更好运行 , 没有问题;但是 , 当数据用于其他目的 , 就会遇到问题或麻烦 。
稿源:(全球医生组织北京代表处)
【】网址:http://www.shadafang.com/c/hn102YT93R020.html
标题:产品||必读|FDA最新观点:对AI技术和产品审评及认证标准