庆祝AI和机器学习解决问题的能力正在不断提升。然而,要承认这一技术可能首先导致它们是更加困难的。

实施算法的技术公司旨在成为一种客观,无偏见的解决方案,以招募更多的女性人才,这是很难学到的。[然而,在同一口气中说“无偏见,并招募更多女性”,这并不是没有偏见的。

当人们发现亚马逊的AI驱动的招聘工具并未以性别中立的方式对开发人员和其他技术职位的候选人进行分类时,亚马逊也许是最响亮的例子。自从公司放弃了这项技术以来,它并没有阻止LinkedIn,高盛(Goldman Sachs)等其他科技巨头开始修补AI,以更好地审查候选人。

大型技术公司正在寻找提高其对多样性和包容性的承诺的银弹并不奇怪,到目前为止,他们的努力没有效果。统计数据显示,女性仅占所有计算机工作的25%,女性的退出率是男性的两倍。在教育方面,妇女也落后于男性。美国计算机科学学位中只有18%是女性。

但是,依靠人工智能技术来缩小性别差距是错误的。问题非常严重。

机器被喂入大量数据,并被指示识别和分析模式。在理想的世界中,这些模式产生了最佳候选人的输出,而不论其性别,种族,年龄或满足工作要求的能力之外的任何其他识别因素。但是AI系统在大多数情况下都是根据实际数据进行训练的,因此在开始做出决策时,数据中存在的偏见和刻板印象就会被放大。

在(黑框)之外思考关于AI偏差。

并非每个在招聘工作中使用算法决策的公司都会收到有偏差的输出。但是,所有使用此技术的组织都必须对他们如何培训这些系统保持高度警惕,并采取积极措施以确保在聘用决策过程中发现并减少而不是加剧偏见。

透明度是关键。

在大多数情况下,机器学习算法在“黑匣子”中工作,几乎看不到输入和结果输出之间发生的情况。在没有深入了解如何构建单个AI系统的知识的情况下,很难理解每种特定算法的决策方式。

如果公司希望他们的候选人信任他们的决策,那么他们就必须对自己的AI系统和内部工作透明。希望在实践中寻找示例的公司可以从S.Military的Explainable AI项目中获取一页内容。

该项目是美国国防和研究计划局(DARPA)的一项计划,旨在教授不断发展的机器学习程序,以解释和证明决策的正确性,以便最终用户可以轻松理解它,从而建立信任并提高透明度。技术。

算法应不断进行重新检查。

人工智能和机器学习不是您可以“设置并忘记”的工具。公司需要对这些系统及其所提供的数据进行定期审核,以减轻内在或无意识偏差的影响。这些审核还应合并来自具有不同背景和观点的用户组的反馈,以应对数据中的潜在偏差。

公司还应考虑对这些审核的结果持开放态度。审计发现不仅对他们对AI的理解至关重要,而且对更广泛的技术社区也很有价值。

通过分享他们所学到的知识,人工智能和机器学习社区可以为更重要的数据科学计划做出贡献,例如用于偏差测试的开源工具。充分利用人工智能和机器学习的公司最终将从这些努力中受益,因为更大量,更好的数据集将不可避免地导致更好,更公平的人工智能决策。

让人工智能影响决策,而不是做出决策。

最终,AI输出是基于最佳可用数据的预测。因此,它们应仅是决策过程的一部分。假设一个算法完全有把握地产生一个输出,那么一个公司是愚蠢的,并且永远不要将结果视为绝对值。

应向候选人充分说明这一点。最终,他们应该对AI能够在招聘过程中帮助他们而不是伤害他们充满信心。

人工智能和机器学习工具正在迅速发展。但是在可预见的将来,仍然需要人类帮助他们学习。

当前使用AI算法来减少偏差的公司,或者考虑在将来使用它们的公司,都需要认真考虑如何实现和维护这些工具。无论系统多么智能,有偏差的数据将始终产生有偏差的结果。

技术应仅被视为解决方案的一部分,尤其是对于与解决技术多样性差距同样重要的问题。经过改进的AI解决方案也许有一天能够自信地对候选人进行排序,而不会产生任何偏见。在此之前,解决此问题的最佳方法是向内看。