应对AI失控,研究人员提出“人格障碍治疗”新思路

  • 2018-09-26 11:48
  • cnBeta.COM

  在许多科幻影视作品中,都描绘过“人工智能失控”的可怕场景。而在现实世界,麻省理工的研究人员们也借助 Reddit 论坛数据构建了一个有点“精神病”倾向的 AI 。可以预见,在并不长远的未来,我们必须像对待人类一样,对 AI 进行潜在的“人格障碍治疗”。实际上,这也是堪萨斯州立大学的研究人员们的观点。

  剧照配图(来自:华纳兄弟)

  他们认为,随着人工智能在复杂性上的增长,它很有可能成为“复杂性挑战”的牺牲品 —— 即所谓的“人格障碍”。

  当然,我们也有望从几十年累积的 AI 知识上获益,寻找治疗和帮助患有创伤后应激障碍(PTSD)、抑郁症、或其它精神疾病的人类的方法。

  比如“认知行为治疗”,就是试图系统性地改变人类的行为模式。那么在不远的将来,类似的流程可否用于矫正“流氓 AI”的行为呢?

  争论点在于,也许我们应该考虑使用类似的框架来思考人工智能、识别错误行为、诊断疾病,然后找出用于解决特定问题的治疗方法。

  研究配图 1:确保 AI / AGI 工程安全的一种精神病理学方法。

  在实施治疗前,研究人员提出了两个起始点 —— 首先是“矫正训练”、其次是“药物疗法”:

  前者借鉴了认知行为疗法,特点是侵入性较小;后者则是通过外部手段操纵奖励信号,以期从根本上改变 AI 的行为方式。

  研究人员在论文中解释到:“当给某个 AI 确诊一种疾病的时候,简单地分解或重构,并不总是可行的”。简而言之,粗暴地“关机”、然后“重启”,是无法治本的。

  尽管这篇论文只是设立了一个起点,但其研究方向已经相当吸引人。当你思索围绕 AI 的焦虑时,这是一个相当有趣的话题。

  麻省理工利用 Reddit 数据打造了首个有点‘神经质’的 AI(图自:MIT Media Lab)

  难以相信的是,我们竟然一本正经地通篇讨论有关人工智能的事情,而没有任何一句揶揄电影《终结者》中有关“天网”的笑话。

  也许有一天,我们会坐在真皮沙发上开始接受弗洛伊德的理论;也许有一天,在处理更广泛的问题时,人工智能会在其中发挥更重要的作用。

  这篇论文的原标题为《A Psychopathological Approach to Safety Engineering in AI and AGI》,感兴趣的朋友可移步至 Ground AI Home 查看全文。

  (原标题:应对AI失控,研究人员提出“人格障碍治疗”新思路|AI|人工智能|研究)

头条推荐
图文推荐