虽然AI在医疗保健中的使用使许多医生和医疗机构对它的潜力感到兴奋,但其他人对此表示怀疑,并呼吁在广泛应用该技术之前采用道德标准。
澳大利亚皇家放射学院和新西兰放射医学学院(RANZCR)在最近公布了有关机器学习和AI在医学中的新兴用途的道德准则草案后,正在回答这一要求。在起草的指南中,该组织概述了医学中AI工具和机器学习系统的研究和部署的八项安全伦理原则,重点是临床放射学和放射肿瘤学。
八项道德原则是:
安全-在机器学习系统或AI工具的开发,部署和利用中应首先考虑患者安全。
避免偏见—为避免偏见,应在代表目标患者人群的大量数据和各种数据上对系统进行培训。
透明度和可解释性-AI系统的开发人员应考虑允许医生理解和解释如何做出决定的设计。
隐私和数据保护-必须取消识别AI研究中使用的数据,以便无法重建患者的身份。
关于诊断和治疗的决策-应该使用系统来增强诊断和治疗的决策过程,并且仍应允许医生做出最终建议。
做出决策的责任-医疗机构在研究或实施AI工具时应提供有关可能承担共同责任的信息。
运用人类价值观-医师应在使用AI工具的任何情况下运用人道主义价值观。
治理-使用AI技术的医院和医疗机构应设立负责任的治理委员会,以监督其使用和对道德标准的遵守情况。
“澳大利亚每年进行数百万次扫描,例如超声和核磁共振成像,突显了成像在医疗保健中的关键作用。放射学如何适应人工智能将对患者和其他医疗保健专业人员产生持续影响,这就是为什么RANZCR主席MBChB的Lance Lawler在一份准备好的声明中说。
“商定的原则一旦建立,将补充现有的医学伦理框架,但也将为医生和医疗组织提供有关研究和部署机器学习系统和医学AI工具的指南。”
-
AI
+关注
关注
87文章
30763浏览量
268914 -
机器学习
+关注
关注
66文章
8408浏览量
132576
发布评论请先 登录
相关推荐
评论