科学批评者称谷歌乳腺癌预测AI研究如果不透明就没有用处
早在1月份 , 谷歌旗下专注于健康相关研究、临床工具和医疗服务合作的分支Google Health就发布了一个在9万多张乳房X光照片上训练的人工智能模型 , 该公司称其取得了比人类放射科医生更好的效果 。 谷歌宣称 , 与之前的工作相比 , 该算法可以识别出更多的假阴性 , 即那种看起来正常但含有乳腺癌的图像 , 但一些临床医生、数据科学家和工程师对这一说法表示质疑 。
在今天发表在《自然》杂志上的一篇反驳文章中 , 隶属于麦吉尔大学、纽约市立大学(CUNY)、哈佛大学和斯坦福大学的超过19位共同作者表示 , 谷歌的研究缺乏详细的方法和代码 , 损害了其科学价值 。 一般来说 , 科学都存在可重复性问题 , 2016年对1500名科学家进行的一项调查报告显示 , 其中70%的科学家至少尝试过复制其他科学家的实验 , 但失败了 。
在人工智能领域 , 这个问题尤为严重 。 在2019年的ICML大会上 , 有30%的作者未能在会议开始前将自己的代码与论文一起提交 。 研究经常提供基准结果来代替源代码 , 当基准的彻底性受到质疑时 , 就会出现问题 。 最近的一份报告发现 , 自然语言处理模型给出的60%到70%的答案都嵌入了基准训练集的某个地方 , 这表明模型往往只是在记忆答案 。
他们表示 , 谷歌的乳腺癌模型研究缺乏细节 , 包括对模型开发以及所使用的数据处理和训练管道的描述 。 谷歌省略了模型架构的几个超参数的定义 , 也没有披露用于增强模型训练的数据集的变量 。 这可能会显著影响其性能 , Nature的共同作者声称 , 例如 , 谷歌使用的其中一个数据增强有可能导致同一患者的多个实例 , 从而使最终结果出现偏差 。
谷歌方面表示 , 用于训练该模型的代码对内部工具、基础设施和硬件有许多依赖性 , 使其发布不可行 。 该公司在决定不发布这两个训练数据集时 , 还提到了这两个训练数据集的专有性和患者健康数据的敏感性 。 但Nature的共同作者指出 , 原始数据的共享在生物医学文献中已经变得越来越普遍 , 从2000年代初的不足1%增加到现在的20% , 而且模型预测和数据标签本来可以在不泄露个人信息的情况下发布 。
【科学批评者称谷歌乳腺癌预测AI研究如果不透明就没有用处】
本文插图
- 科学家|巴西科学家首次发现保存在恐龙化石骨骼内的血液寄生虫
- 中国网|“公共卫生:传播的力量”科学传播工作营在京举办
- 韩国瑜|“后悔罢韩”登上谷歌热搜,台湾年轻人“悔不当初”
- 环球网|特朗普批“若拜登当选会听科学家的话”,网友狠怼:真是滑稽……
- 中国科学技术大学|13岁被中科大录取,被称“第一神童”的宁铂,为何出家了?
- 上海市科学技术委员会|上海市经济管理学校校园科技节暨上海科技电影周校园站开幕式顺利举行
- 优生优育|倡议科学生育行动 首届中国优生优育大会在长沙举行
- 卡拉和科学|为什么牛仔裤有个迷你口袋?你不知道的时尚冷知识……
- 房企|中国房地产金融CFO50论坛:“三道红线”的行业声音——立足科学,严谨践行
- 科学深圳先进院在快速化微液滴生成和高密度颗粒阵列研究方面取得进展