大多数公众认为'AI不应该犯下任何错误'©Getty Images

大多数公众都相信‘ai不应该犯任何错误’

关于人工智能的公共信任的研究发现了许多想要由人类检查的技术做出的决定。

公众对使用持怀疑态度 人工智能 (AI)进行决策,研究表明,近三分之二的人们围绕其使用更严格。

广告

AI创新公司Fountech的一项调查显示,据透露,64%的人想要更多的规定,以使AI更安全。

人工智能在大规模决策中变得更加突出,算法现在在医疗保健等领域使用,以提高 速度 准确性 of decision-making.

然而,该研究表明,公众尚未完全信任该技术 - 69%的人表示人类应监测和检查AI软件的每一个决定,而61%的人表示他们认为AI不应该犯任何错误第一名。

阅读更多关于人工智能:

作出决定的机器的想法也似乎对AI的信任产生了影响,因此45%的人表示,与人类制作的人相比,通过技术的原谅误差更难。

因此,许多人希望AI持有高标准的问责制,其中近四分之三的人(72%)表示,如果犯错误,AI的发展背后的公司应该负责。

人们对涉及可以在人类控制之外运行的系统的担忧是合理的
Nikolas kairinos. ,Fountech.ai

Nikolas kairinos. 作为Fountech.ai的创始人表示,有些人对可以在人类控制之外运营的技术崛起并不令人惊讶。

“我们越来越依赖AI解决方案来电力决策,无论是提高医疗诊断的速度和准确性,还是通过自动车辆提高道路安全性,”他说。

“作为一个非生活实体,人们自然期望AI故障地运作,而这项研究的结果为自己讲话:大量的人希望看到来自AI公司的加强监管和更高的问责制。

听取AI上的科学焦点播客剧集:

“人们对人们涉及完全在人类控制之外运营的系统是合理的。与任何其他现代技术一样,必须受到监管以管理风险并确保严格的安全标准。

“所说,法规的方法应该是一个微妙的平衡行为。必须允许允许房间犯错并从中学习;这是这项技术将达到新的完美水平的唯一方法。

“虽然立法者可能需要对AI的行动进行责任,因为技术进步,过度规范的AI风险阻碍了与AI系统的创新潜力,这承诺更好地改变我们的生活。”

即时天才:机器人

在今年早些时候发布的报告中,公共生活标准委员会表示 需要更大的透明度 在AI周围及其在公共部门的潜在用途,以获得公众的信任,并将它们放在使用中。

广告

它呼吁政府和监管机构建立一套关于使用AI的道德原则,并使其指导更容易使用。

读者问:&答:如果我们能够使机器人像我们那样聪明,不会强迫他们为我们和奴隶制一样糟糕?

问:Mahika Gautam,伦敦

简而言之:是的。奴隶制的国际法目前仅适用于人类,但如果机器人像我们一样聪明,那么政治家需要开始考虑调整这些法律,也包括包括机器人。

我们毫不愚蠢地对待这些机器人尊重:历史向我们展示了从平等的劳动力永远不会结束。幸运的是,欧盟已经驾驶了使用AI软件的道德准则,因此我们可能会实施立法,以确保AIS与人类智慧的福祉。如果我们没有,那么他们可能会!

阅读更多: