人工智能的兴起警告了人们有偏见的、欺骗性的和恶意的应用。
微软高级机器学习科学家、云倡导者Francesca Lazzeri表示,有一种方法可以避免偏差,确保负责任的AI。
Lazzeri说:“在我们的团队中,我们有一个名为“可解释工具包”的工具包,这实际上是一种打开机器学习模型,了解不同变量和不同数据点之间不同关系的方法。“这是一个简单的方法来理解为什么你的模型可以为你提供具体的结果。”
除了在微软工作,Lazzeri还是博士的导师。还有麻省理工的博士后。
在佛罗里达州奥兰多举行的微软Ignite活动上,她与SiliconANGLE Media移动直播工作室的联合主持人SCU米曼和丽贝卡奈特进行了交谈。他们讨论了负责任的AI的发展路径和微软最近在机器学习中发布的版本。
Lazzeri说,在AI应用中发现的大多数偏差问题都是从数据开始的。她说,“你必须确保数据足以代表你的人工智能应用所针对的人群。”“很多时候,客户只是使用自己的数据。查看外部数据类型也很有帮助。”
避免问题的另一种方法是与业务和数据专家一起检查模型。“有时我们有数据科学家在孤岛上工作;他们没有真正传达他们在做什么,”Lazzeri指出。“您必须始终确保数据科学家、机器学习科学家和数据专家、业务专家以及每个人都密切合作.以确保我们知道自己在做什么。”
对于刚刚开始机器学习之旅的公司来说,第一步是确定必须回答的业务问题。Lazzeri解释说:“一旦想到这个问题,第二步就是找出他们是否有正确的数据来支持流程所需的内容。”
之后,重要的是能够将业务问题转化为机器学习问题。Lazzeri说:“此外,最后,您必须始终确保可以部署这种机器学习模型,为部署和我们所说的操作部分做准备。“这确实是您想要为机器学习解决方案增加业务价值的时刻。”