人类往往会做出可疑的决定。我们有偏见,受情绪反应驱动,预测能力差,很难一次考虑多个数据点。这使得人工智能优于人类的决策,不仅让我们更聪明,也让我们更公平。问题在于,人工智能是从人类行为产生的数据中学习(借助显性领域知识),从而模仿我们的偏见。这导致了反映我们的种族主义、性别歧视和其他偏见的算法。许多组织(“多样性. ai”就是一个例子)专注于发现和消除人为偏见。这项工作是必要的,我赞扬这一宝贵的努力。
消除人工智能偏见的一个方法是包容性就业。建立能够实现种族、性别、性取向、年龄和经济状况多样性的人工智能团队。我认为如果你这样做,你会得到更好的AI,因为你的团队会更善于发现偏见,不同的背景会促进更多的创新思维,更多样化的团队会提高你在整个企业扩展解决方案的能力。
多元化团队更擅长避免编程偏差,因为他们擅长预测潜在的问题。例如,医疗保健提供商最近使用为大型保险公司创建的算法来指导急需治疗的患者实施能够为他们提供额外护理的计划。问题是算法的护理决策是基于过去患者就医的频率,有利于患者获得更好的保险、更多的时间和更多的金钱。在这个首选患者群体中,白人的比例太高了。该算法未能为病情严重但时间和金钱较少的患者推荐额外护理,包括大量黑人患者。这导致了意想不到的种族分类,白人患者比黑人患者得到更好的护理。我们不知道是哪家公司创造了这项技术,但我不认为这是一个多元化的团队。黑人团队成员和背景不太富裕的人在出版之前可能已经看到了这种偏见的可能性。
思想的多样性也促进了创造性思维。2006年,网飞宣布参加比赛,并向团队提供了100万美元的大奖,这可能有助于其成功构建著名的推荐引擎原型。获胜的队伍是BellKor的实用混乱队。他们是怎么做到的?首先,他们与来自150个国家/地区的2万支其他球队进行了几轮比赛。然后,在比赛的后期,各队开始相互融合。获胜的团队由三个团队组成:伯克尔、实用主义理论和大混沌。准确性、组合模型的能力以及从人类行为中获得洞察力的能力都是实现获胜原型的关键,每个团队都有其中一个关键优势。这清楚地表明,思想的多样性可以带来卓越的结果。不同背景的团队成员带来不同的想法和项目,这将促进优秀的人工智能。
最后,部署和扩展AI不仅需要技术知识。设计一个直观的界面,与用户和领导者合作,交流变化和对用户感同身受是成功扩展人工智能的关键素质。对最终用户的同理心是培训和传达潜在积极影响等因素的关键。职能部门(信息技术、数据科学、业务)之间的协作和沟通对于确保采用人工智能解决方案也至关重要。研究表明,女性可能比男性更擅长这些技能。团队成员有情商,无论是女性、男性还是非二元,这是关键。最起码开发AI的团队应该和采用AI的团队差不多。一个白人或男性主导的团队可能很难与一个不太统一的更广泛的组织联系起来。
我们可以也必须做更多的工作来增强人工智能开发团队的多样性。我致力于提高团队的多样性,我的旅程才刚刚开始。当然,我们不能停止雇佣各种各样的人。我们还需要建立反种族主义文化、无意识偏见意识以及持续对话和教育。如果没有,你应该督促你的人力资源团队继续努力。我知道找数据科学家很难,也不建议组建这样的团队容易。但这是一项值得的投资,即使这意味着你正在培养人才或重新培训团队成员的技能。你可能无法下定决心,为下一个AI项目雇佣一个多元化的团队,但如果你想让你的团队建立一个更聪明、更好、危害更小的AI,那就尽一切努力建立一个多元化的团队。