人工智能也有歧视?亚马逊关闭AI招聘
- 2018-11-13 16:30
- 手机中国
亚马逊在发现实验性的人工智能招聘工具歧视女性之后,决定关闭该工具。这款工具可以搜索网络发现潜在的候选人,并用1到5颗星对其进行评定。但该算法学会了针对技术职位--例如软件开发职位--系统地降低女性简历评分。
虽然亚马逊处于人工智能技术的最前沿,但该公司也无法找到一种方法使其算法保持性别中立。该公司的失败提醒我们,人工智能会从各种来源中产生偏见。人类会受到各种偏见的左右,而人们普遍认为算法不会这样,它们应该客观公正,毫无偏见。然而事实上,算法可能会无意间从各种不同的来源学习到偏见。从训练它的数据到训练算法的人,一些甚至是看起来无关的因素也会导致人工智能偏见。
人工智能歧视
人工智能算法经过训练,观察大数据集中的模式以帮助预测结果。在亚马逊的这个案例中,算法使用了十年间提交给该公司的所有的简历,以了解如何找到最佳候选人。
鉴于该公司的女性员工比例很低--就像大多数科技公司一样--该算法很快就发现了男性的统治地位,并认为这是成功的一个因素。因为该算法使用其自身预测的结果来提高其准确性,所以它陷入了对女性候选人的性别歧视模式。
而且由于用于训练它的数据是由人类创造,这意味着该算法还继承了不良的人类特征,如偏见和歧视,这也是招聘领域多年存在的问题。
(原标题:人工智能也有歧视?亚马逊关闭AI招聘|人工智能|AI|亚马逊|招聘 )
头条推荐
- 索尼加强监管PS4游戏中情色内容 引部分开发者不满2019-06-13 10:24
- 腾讯京东成乐融致新新晋股东 乐视网盘中涨超9%2019-06-12 14:03
- “向新而行 ,强大中国车”比亚迪演绎强大中国车2019-05-30 13:57
- 獐子岛扇贝又又又跑路了 证监会和交易所看不下去了2019-05-24 17:27
- “深海勇士”:碧海寻声2019-05-14 13:50
图文推荐
-
2
哪个比特币钱包更安全,选择币信靠谱吗?
2021-02-05 16:02
-
3
受央视关注,必要科技C2M模式赋予产业发展新动能
2021-02-04 16:43
-
4
腾讯Light·公益创新挑战赛正式启动 腾讯优图向科技公益深度探索
2020-12-30 15:50
-
5
首届中国数字冰雪运动会成都站暨线下滑雪体验赛圆满落幕
2020-11-30 10:30