与国防部合作遭抗议 谷歌想制定军事AI道德政策

  • 2018-09-26 11:34
  • 网易科技

  据美国媒体报道,本月谷歌与美国五角大楼合作的Maven项目曝光,导致该公司一些职员抗议和辞职。现在谷歌表示将制定指导其参与军事项目的道德政策。《纽约时报》称,谷歌的政策将明确禁止在武器中使用人工智能(AI)。

  谷歌发言人表示,在围绕国防和AI合同制定的“一系列原则”上,公司考虑了职员的意见,公司CEO桑德尔⋅皮查伊在全公司大会上承诺制定“经得住时间考验”的“指导方针”。该政策的细节预计在几周内宣布。《纽约时报》获得的内部交流邮件显示,在谷歌高管中Maven项目成为热烈争论的话题。

  去年9月谷歌国防和智能销售主管斯科特⋅福罗曼、谷歌云首席科学家和斯坦福AI实验室主管李飞飞都对由此可能带来的反冲力表达了担忧。李飞飞写到:“AI武器化是AI话题中最敏感的一个,这是媒体攻击谷歌的最好素材。”李飞飞是教育AI的公开支持者,她与梅琳达⋅盖茨、英伟达创始人黄仁勋一起创办了辅导课程AI4All,招募高中生研究将机器学习应用到解决人道危机中的项目。

  谷歌决定不公开参与Maven项目,但职员内部却展开了争论。一位辞职的工程师将一个会议室更名为克拉拉⋅伊墨瓦尔(为抗议将科学用于战争在1915年自杀的德国化学家)。谷歌在伦敦的子公司DeepMind的高管,包括创始人穆斯塔法⋅苏雷曼,与皮查伊和其他股东讨论了有关Maven项目的政策问题。负责谷歌AI研究的杰夫⋅迪安在反对将机器学习用于自动武器的公开信上签名。

  在谷歌参与Maven项目新闻爆出后不久,谷歌云的CEO戴安娜⋅格林与谷歌创始人塞尔盖⋅布林一起回答了相关问题。随着公司内部抗议非常强烈,格林决定举办圆桌会议,讨论谷歌参与Maven项目性质和使用AI道德问题。谷歌副总裁和著名的前国防部研究员温特⋅瑟夫、谷歌AI研究员梅雷迪斯⋅惠塔克参加了谈论,并向全球谷歌职员直播。但这不能消除职员的担忧,他们感觉谷歌违背了“不作恶”的核心座右铭。

  (原标题:与国防部合作遭抗议 谷歌想制定军事AI道德政策|道德|政策|谷歌)

头条推荐
图文推荐