人工智能本身并不具有偏见,但只要是人类开发的,任何有意识或无意识的情感都可能渗透进来。根据 报告 根据 的数据,企业将应对这一风险,要求到 年,所有从事人工智能开发和培训的人员都必须证明自己具备负责任的人工智能专业知识。
除了承担更多责任外,人工智能程序员和设计师还可以通 丹麦电话号码数据 过接受培训来了解如何避免他们所创造的技术中的偏见,从而取得更大的成功。这说起来容易做起来难,但却是必不可少的。有偏见的算法会对一个人的理解能力产生负面影响 卫生保健 或 住房贷款,这只是冰山一角。但麦肯锡 成立 如果公司缺乏能够首先注意到这些问题的多元化员工,那么训练数据和模型(为人工智能提供信息)中的偏见将更难被发现。换句话说,人工智能应该始终由代表最终产品或服务所针对的同一人口统计数据的人来构建。
好消息是,麦肯锡 还 发现近 的企业认为促进多样性、公平和包容性 非常重要或极其重要。我们完全同意——我自己的公司也创建了一个 人工智能领域的女性 计划,它鼓励我们的女性分享她们的成功故事,并为我们的客户和合作伙伴提供机会了解更多关于她们不可思议的旅程。