AI研究人员:当算法出错时我们需要更多力量反击

  • 2018-12-14 11:38
  • cnBeta.COM

  据外媒报道,虽然政府和私营企业正在快速部署AI系统,但公众却缺少在这些系统出现故障时追究其责任的工具。这是AI Now最新发布的一份报告的结论之一。AI Now是一家面向微软、谷歌等科技公司的研究机构,同时它隶属于纽约大学。

  AI Now在报告中审视了AI和算法系统的社会挑战,它将问题聚焦于研究人员所称的“问责缺口”。对此,他们提出了十项建议,包括呼吁政府对面部识别进行监管以及对AI产品制定“广告真实法”,让企业不能简单地利用该技术的声誉来销售其服务。

  现在许多大型科技公司都开始发现自己正处于AI的淘金热中,于是它们大举进入从招聘到医疗保健等多个市场并出售自己的服务。但是,正如AI Now的联合创始人、谷歌Open Research Group负责人Meredith Whittaker所说的那样,这些公司许多关于利益和效用的主张并没有得到公开的科学证据支持。Whittaker举了IBM沃森系统的例子,据了解,该系统在斯隆凯特林癌症中心进行实验诊断时给出了“不安全且不正确的治疗建议”。对此,Whittaker表示:“他们(IBM)的营销部门对近乎神奇的特性所做的断言从未得到过同行评论研究的证实。”

  AI Now最新报告的作者们指出,这一事故只是涉及AI和算法系统的一系列“连锁丑闻”的其中一件,另外还有Facebook协助促成了缅甸的种族灭绝、谷歌Maven项目对美国军方制造无人机AI工具的帮助以及剑桥分析公司数据丑闻等等。

  在所有这些案例中,既出现了来自公众的强烈抗议也有来自硅谷最具价值的公司内部的不同意见。这一年,谷歌员工因五角大楼的合同辞职、微软员工向该公司施压要求其停止与移民和海关执法局的合作以及谷歌、Uber、eBay和Airbnb为抗议涉及性骚扰而展开的罢工运动。

  Whittaker指出,这些抗议活动得到了劳工联盟和像AI Now等这样的研究机构的支持,这已经成为了一股意想不到、令人欣慰的公众问责力量。

  但报告的目的很清楚,那就是公众需要的更多。当涉及到政府采用自动决策系统(ADS)时对公民正义的威胁尤为明显。报告的作者们指出,通常情况AI系统被引入这些领域则是为了降低成本和提高效率,然而结果往往是系统作出了说不通或无法上诉的决定。

  Whittaker和另外一位AI Now联合创始人、微软研究员Kate Crawford指出,将ADS整合到政府服务中已经超过了他们审计这些系统的能力范围。不过他们表示可以采取一些具体的步骤来解决这一问题,比如要求向政府出售服务的技术供应商放弃贸易保密保护从而让研究人员可以更好地去检查它们的算法。

  另外他们还提到了另外一个需要立即立即采取行动的领域--面部识别和情感识别。现在全球已经有多个国家的警察开始使用前者。例如为奥兰多和华盛顿县警方部署的亚马逊Rekognition系统,尽管测试显示该软件在不同种族中的表现不同,但在一项用Rekognition识别国会议员的测试中白人议员的错误率只有5%而非白人议员的错误率却有39%。在情感识别方面,这家公司声称他们的技术可以通过扫描一个人的面部来读取其性格甚至意图。对此,AI Now的看法是企业们经常都在兜售伪科学。

  尽管面临不少的挑战,但Whittaker和Crawford表示,2018年的情况已经表明,当AI问责和偏见问题被曝光时,技术员工、立法者和公众愿意采取行动而不再是默许。

  (原标题:AI研究人员:当算法出错时我们需要更多力量反击|谷歌|研究|AI|算法)

头条推荐
图文推荐