包括机器学习在内的人工智能为改变健康和生命科学领域提供了令人兴奋的机会。它为快速,更准确的临床决策和增强的研发能力提供了诱人的前景。但是,围绕法规和临床相关性的未解决问题仍然存在,导致技术开发人员和潜在投资者都在努力克服如何克服当今采用,遵从和实施的障碍。
以下是需要考虑的主要障碍及其处理方法:
发展监管框架。在过去的几年中,美国食品药品监督管理局(FDA)采取了渐进的步骤来更新其监管框架,以跟上快速发展的数字医疗市场的步伐。FDA在2017年发布了其《数字健康创新行动计划》,以明确说明该机构在推进安全有效的数字健康技术以及解决《21世纪治愈法案》的关键条款方面的作用。
FDA还一直在其数字健康软件预认证(Pre-Cert)试点计划中注册特定的软件即医疗设备(SaMD)开发人员。认证前试验的目的是帮助FDA确定产品预认证所需的关键指标和性能指标,同时还确定使开发人员更容易批准流程并帮助推进医疗保健创新的方法。
最近,FDA在9月发布了其“设备软件功能和移动医疗应用政策”-一系列指导文件,描述了该机构计划如何规范有助于临床决策支持(CDS)的软件,包括利用机器的软件基于学习的算法。
在FDA的相关声明中,其首席副局长Amy Abernethy解释说,该机构计划将监管重点集中在“高风险软件功能”上,例如那些用于更严重或严重健康状况的功能。这也包括利用基于机器学习的算法的软件,如果不做进一步说明,用户可能不容易理解程序的“逻辑和输入”。
属于FDA的“高风险”监督类别的CDS软件的一个例子是,该软件可以识别出可能患有严重疾病(例如术后心血管事件)的患者,但不能解释该软件为什么这样做的原因。识别。
获得FDA批准。为了解释换档FDA的监督和审批程序,软件开发人员必须认真思考如何最好地设计和推出自己的产品,所以它很好地定位了FDA的批准,尤其是在软件直属机构的“高风险”类别下降。
必须考虑的因素之一是,以人工智能为动力的治疗或诊断工具本质上将继续发展。例如,合理地期望软件产品将随着时间的流逝而更新和改变(例如,安全更新,添加新的特征或功能,更新算法等)。但是鉴于该产品在技术上已发生更改,因此在每次更新或新迭代之后,其FDA批准状态可能会面临风险。
在这种情况下,计划采用基于版本的方法来进行FDA批准过程可能符合开发人员的最大利益。通过这种方法,每次通过一组新的数据对软件的内部ML算法进行训练时,都会创建一个新版本的软件,并且每个新版本都需要获得FDA的独立批准。
尽管很麻烦,但是这种方法避开了FDA对批准功能上会改变FDA批准后功能的软件产品的担忧。这些战略发展考虑因素对于解决方案提供商而言至关重要。
同样,投资者还必须对公司的产品开发计划和持续的FDA批准的预期方法有清晰的了解,因为这可以与同一领域的其他竞争对手形成明显的差异。临床医生将很难采用尚未通过FDA验证的技术,因此投资者需要确保他们正在考虑支持的公司具有明确的产品开发路线图-包括将FDA批准为软件产品本身的方法和法规准则继续发展。
AI是一个黑匣子。除了当前的法规含糊不清之外,在临床环境中对AI应用程序采用构成挑战的另一个关键问题是其黑盒性质以及由此产生的信任问题。
跟踪挑战之一:如果出现负面结果,是否可以跟踪和评估AI应用程序的决策过程-例如,用户是否可以识别导致AI应用程序特定行动的训练数据和/或机器学习(ML)范例?简而言之,是否可以在技术内确定负面结果的根本原因,以便将来可以避免?