巴比伦健康的首席用户研究员安娜扎维尔斯卡(Anna Zawilska)最近在布拉格举行的2019年网络博览会上展示了通过将技术和人工智能(AI)相结合来提供远程医疗服务的经验和教训。巴比伦健康调整支持产品开发的三个关键假设。
扎维尔斯卡在演讲中提到了世界卫生组织的一项研究,根据这项研究,世界上至少有50%的人口无法获得基本的医疗服务。在这种情况下,将移动设备的普及与人工智能的诊断能力相结合,可能会扩大医疗保健服务的接入范围。巴比伦的工程师、医生和科学家开发了一种AI系统,可以接收关于一个人症状的数据,将这些信息与已知条件和疾病的数据库进行比较,找到可能的匹配,然后确定行动计划和相关风险因素。
在巴比伦移动应用程序中,典型的用户流程将从该应用程序开始,要求用户(患者)描述他或她正在经历的症状。第二阶段,根据申报的症状,询问其他问题,进一步改善可能影响患者的情况。在第三阶段,将提出建议。
巴比伦团队做出的第一个假设是,患者和医生一样信任聊天机器人(患者输入症状)。然而,来自实践经验的主要观察结果表明,人类医生和基于机器的技术之间的用户行为存在显著差异。
患者通常认为医生是知识渊博的合格医生。这种信任没有转化为聊天机器人。此外,尽管患者很少起床,也不会在结束前咨询医生,但Chatbot用户更有可能尽快结束咨询。最后,虽然患者通常认为应该遵循医生的建议,但Chatbot用户倾向于相信Chatbot的建议并遵循给定的处方。
巴比伦健康得出结论,用户的信任是无法假设的,所以他们需要设计来提高他们的信任。Zawilska提供了一个改变用户界面的例子:当一个假设的用户被问及“你的脖子移动有问题吗?”申请还将解释为什么会提出这个问题。例如,在这种情况下,应用程序将显示以下消息:“我问这个是因为我试图缓解我的紧张性头痛。对你个人来说,颈部问题和头痛是紧张性头痛的有力预测因素。”
信任问题在医疗保健行业尤为普遍。扎维尔斯卡引用了最近的争议(涉及Theranos或DNA测序),这削弱了人们对医疗技术最新创新的信任。
第二个假设是临床安全性是评价巴比伦预测AI成功的唯一标准。通常使用大量的数据来训练AI,并且使用一些评估标准来对照测试集测试生成的AI模型。Zawilska解释说,将临床安全性作为验证AI模型的唯一标准会带来更高的风险,从而对用户体验产生不利影响。