如何制作适用于我们的AI©Getty Images

如何制作适合我们的AI

人工智能全部,但在未来,我们将如何确保它有效 为了 us, not against us.

视觉对象识别,语音识别,机器翻译 - 这些是人工智能研究的“圣杯”之一。但是,机器现在处于一个水平,这三个区域的基准性能已达到,甚至超过人类水平。而且,在24小时的空间,单个程序,alphazero, 迄今为止世界上最好的球员 在三场比赛中 - 国际象棋,去和Shogi - 它没有先前的曝光。

广告

这些发展在媒体中引起了一些危言耸听的报告,总是伴随着图片 终结者 机器人,但即将到来的超人AI的预测几乎肯定是错误的 - 我们仍然几乎没有几个概念突破。

另一方面,在利益研究中的大规模投资,在未来十年内,数千亿英镑,建议进一步快速进展并不遥远。超人AI完全不可能的预测是不明智的,缺乏任何技术基础。

算法可以交付正义吗? ©Getty Images.

那么如果我们成功地制作这种超人的人工智能,会发生什么?显而易见的答案是,创造比自己更聪明的实体可能导致人类控制的丧失。例如,这是英国计算机科学家Alan Tures在1951年在BBC Radio 3的讲座中看到它:

  • 如果机器可以思考,它可能比我们所做的更智能地思考,然后我们应该在哪里?即使我们可以将机器保留在潜在的位置,例如通过在战略时刻关闭电力,我们应该作为一种物种,感觉大大谦卑。

我们是如何在技术学科中投入数十亿美元的,如果它继续在目前的方向,可能会导致灾难?设置AI字段的两个基本步骤(非常大致)如下:

  • 1.我们确定了人类智力的合理概念: 人类 聪明的程度 我们的 可以预期行动可以实现 我们的 objectives
  • 2.我们直接将此概念转移到机器上: 机器 聪明的程度 他们的 可以预期行动可以实现 他们的 objectives

因为与人类不同的机器,没有自己的目标,我们给了他们目标实现。同样的基本计划是经典经济学,控制理论,统计,管理科学和运营研究。虽然这个方案普遍且非常强大,但我们不希望在这种意义上智能的机器。

基本缺点已经是众所周知的。例如,MIDAS王的传说涉及一个错误指定的目标(“让我触摸的所有东西转向金”),导致灾难。随着美国数学家和哲学家诺伯特维纳将它放在1960纸中 发表科学:

  • 如果我们使用,以实现我们的目的,一个机械机构与我们无法有效地干扰的机械机构......我们更好地确保投入机器的目的是我们真正渴望的目的。

作为一个明确的目的的示例,考虑到旨在最大化社交媒体点击的相对简单的AI算法的事实 影响了政治观点 数百万人朝向极端位置。

由于Wiener还注意到,只要机器是愚蠢的,就定义了不良的目的就没有重大风险。我们总是可以重置机器并再试一次。当机器比人类设计师更具能力,此选项可能无法使用。

再次在机器智能定义(2,上面),我们没有可靠的方式来确保 他们的目标 与之相同 我们的目标。所以让我们尝试一下:

  • 3.机器是 有利 在某种程度上 他们的 可以预期行动可以实现 我们的 objectives

这可能是我们应该为所有人的目标。当然,困难的部分是我们的目标是在我们身上,而不是在他们身上。

然而,事实证明,可以定义导致机器的数学框架 可怕的有益 在这个意义上。也就是说,我们为解决机器定义了一个正式的问题,如果他们解决它,他们保证对我们有益。在最简单的形式中,它就是这样:

  • 世界含有一个人和一台机器。
  • 人类对未来的偏好并按照它们行动(大致)。
  • 机器的目标是优化这些偏好。
  • 机器明确 不确定 as to what they are.

读取这一点的经济学家将认识到博弈论标题下降的问题,研究了如何在涉及多个决策实体时做出决定。

在这里,实体是人类和机器,它们彼此紧密耦合,因为首先人类的行为向机器提供了关于人类想要的信息的信息,其次是机器的动作将对人类变得更有利了解人偏好改善。

这场比赛中的最佳机器策略结果向人类倾向;例如,机器有动力询问许可,允许自己被关闭,并在指导下不清楚时小心行动。此外,这种框架中的人类有动力是有效的 - (尝试)将他们的偏好教导到机器上。

虽然这些初步结果是用于简化和理想化的环境,但我的同事已经成功地应用了相同的方法来实现了现实问题,如自动驾驶汽车 与人类司机互动.

我们现在正在处理的两个主要难度:满足偏好 许多人类 并了解偏好 真正的人类.

许多人类

机器代表多个人类做出决定面临着与道德哲学的基本问题之一密切相关的问题:道德人应该如何(或道德政府)法案?这些不是相同的情况,因为机器制造决定没有自己的偏好,但问题仍然非常相似。

功利主义,一个想法被哲学家杰里米·宾沙姆和约翰斯图尔特厂在18岁的哲学家广泛推广TH. 和 19TH. 几个世纪以来,许多思想家精致,提出了一个合理的答案:“最大的最大幸福。”

有意识机器的崛起:我们应该服用ai吗? ©Andy Potts.

然而,通过机器做出决定,我们必须非常小心漏洞。例如,20TH. 世纪哲学家罗伯特·诺兹克在他的书中指出 无政府状态,州和乌托邦,这种功利主义可以使受害者成为“公用事业怪物”,其幸福和误认为比普通人的更大程度更大,诱使道德决策者分配给怪物的资源严重不平等份额。即使真正的迷信怪物不存在,Mementian分配政策也会导致人们假装成为纪念品更大的份额。

诸如“的消极利他主义人的偏好虐待狂,嫉妒,怨恨和恶意“也造成困难;机器应该只是忽略它们吗?最后,有人真的买一个真正的利他主义,功利主义机器吗?这是如何在哈拉特下班回家的时候,被罗比的利他机器人打招呼:

罗比: 欢迎回家!漫长的一天?

哈提瓦:是的,真的很难,甚至没有时间吃午饭。

罗比:所以你必须非常饥饿!

哈提瓦:饿死!你能给我一顿晚餐吗?

罗比:有些东西需要告诉你......

罗比:在索马里有人类的迫切需要帮助。我现在要走了。请制作自己的晚餐。

虽然哈拉特可能会为罗比感到骄傲,但她不禁怀疑为什么她炮击了一个小幸运购买了一个机器人,其第一个重大行为要消失。

真正的人类

机器需要“反转”实际的人类行为,以了解驱动它的潜在偏好。例如,国际象棋球员因精神限制而犯错误;观察这种错误的机器不应该得出结论 pref 失去游戏。相反,机器必须了解人类如何实际做出决定;就这个问题而言,我们目前主要在黑暗中。

人类认知的复杂性提出了另一个问题:是否有可能始终如一地识别有时非合理实体的偏好?例如,Daniel Kahneman,心理学家和畅销书的作者 思考,快速缓慢 辩称我们有一个 体验 自我和A. 记住 不同意任何经验经验的可取性的自我。机器应该服务哪一个?

最后,必须考虑 可塑性 人类偏好,随着年龄的增长,随着年龄的增长,获得更多经验,并在社会影响力的摇摆下,随着时间的推移,这显然会随着时间的推移而发展。社交媒体点击示例显示了快速的机器如何修改人类偏好。我们必须通过修改这些偏好来解决适应现状来防止机器满足人类偏好的方法。

如果我们解决这些问题,我们可能会在人类和机器之间享受新的和有益的关系。我们会离开树林吗?不完全的。我们仍然面临另外两个主要问题。

第一是 滥用 - 我们如何确保恶意的人类参与者不会为自己的目的部署强大而危险的AI形式?到目前为止,我们在包含恶意软件方面没有取得太大成功,这将会更糟糕。

第二个主要问题是 过度使用 - 我们如何避免如何逐步地对人类的影响,因为机器接管我们文明的越来越多?精心设计的机器应坚持认为,人类对自己的福祉保持控制和责任,但近视人类可能不同意。

斯图尔特罗素教授将于11月20日在威斯敏斯特修道院与Richard Sargeant进行对话,作为威斯敏斯特修道院学院的秋季计划的一部分 拥抱全球挑战。

预订(免费)去 www.westminster-abbey.org/institute.

PEG Skorpinski照片

广告

关注科学专注 推特Facebook, Instagram. 抹布