以下是可保持 AI 程序不存在偏见的六个流程步骤的清单。
1. 选择正确的学习模型:
- 使用监督模型时,利益相关者会选择训练数据。利益相关者团队必须多元化,不仅限于数据科学家,并且该团队应接受过有助于防止无意识偏见的培训,这一点至关重要。
- 无监督模型完全使用 AI 来识别偏见。需要在神经网络中内置防偏见的工具,以便它学会识别存在偏见的内容。

2. 使用正确的数据进行培训:用错误的数据训练机器学习会导致错误的结果。输入到 AI 的任何数据都应该是完整和平衡的,以便复制选定群体的实际人口统计数据。
3. 选择一个平衡的团队:AI 团队越多元化(包括种族、经济地位、教育水平、性别和工作职责),就越有可能识别出偏见。一个全面的 AI 团队的人才和观点应该包括 AI 业务创新者、AI 创造者、AI 实施者以及特定 AI 工作的消费者代表。9
4. 谨慎执行数据处理: 企业在处理数据时应意识到每个步骤存在的偏见。风险不仅在于数据选择:无论是在数据预处理、处理中还是处理后,偏见随时都可能“悄然而动”,并输入到 AI 中。
5. 持续监控:没有一种模型是完整或永久的。使用来自整个组织的真实数据进行持续监控和测试,有助于在偏见造成危害之前检测并将其纠正。为了进一步避免偏见,组织应考虑由其内部的独立团队或可信赖的第三方进行评估。
6. 避免基础设施问题:除了人力和数据的影响外,有时基础设施本身也会引起偏见。例如,使用从机械传感器收集的数据,如果传感器出现故障,设备本身可能会带入偏见。这种偏见可能很难检测,需要对最新的数字和技术基础设施进行投资。
