document.write('
')
  1. 首页
  2. 人工智能

人工智能的神话在走入死胡同:为什么计算机不能像人类那样思考?

人工智能的神话在走入死胡同:为什么计算机不能像人类那样思考?

(本文翻译自 thenextweb,原作者:Ben Dickson )

随着人工智能的深度学习技术持续进步,一些最新的技术进步毫无疑问重新点燃了人们对类人 AI 的兴趣,这些类人 AI 指的是可以像人类一样思考和行动的机器或通用人工智能。这种 AI 的需求是巨大的。现在人们的想法是,通过构建更大更好的神经网络,可以创造越来越接近创建人脑的数字版本。这有可能会实现吗?

计算机科学家埃里克 · 拉森认为,这是一个神话,因为所有证据都表明人类和机器智能完全不同。埃里克 · 拉森认为,广泛宣传的对智能和推理的误解,导致人工智能研究走上限制创新和科学发现的狭窄道路。

他警告说,除非科学家、研究人员和支持他们工作的机构坚守初心,不改变方向,否则他们将注定要屈服于机器王国的爬行式进步,在那里真正的发明被边缘化,关于未来主义的言论会占据科学研究的主要,他们所鼓吹的方法却往往来自根深蒂固的利益。

从科学的角度来看,人工智能的神话假设是这样的:我们将通过在狭窄的应用程序上取得进展来实现通用人工智能 ( AGI ) ,例如对图像进行分类、理解语音命令或玩游戏。但是,这些狭义人工智能系统背后的技术并没有解决一般智能能力必须解决的更广泛的挑战,例如进行基本对话、在家里完成简单的家务或其他需要常识的任务。

人工智能的神话在走入死胡同:为什么计算机不能像人类那样思考?

" 当我们成功地应用更简单、更狭隘的智能版本时,这些智能版本受益于更快的计算机和大量数据,我们并没有取得渐进式进展,而是在摘取唾手可得的果实,这些果实在树枝的最低端。" 拉森写道。人工智能神话的文化后果是忽视智能的科学奥秘,无休止地谈论深度学习和其他当代技术的持续进步。这个神话阻碍了科学家思考解决智力挑战的新方法。

" 如果我们选择忽略核心谜团而不是直面它,我们就不太可能获得创新," 拉森写道。" 健康的创新文化强调探索未知事物,而不是大肆宣传现有方法的扩展……关于人工智能不可避免的成功的神话往往会扼杀真正进步所必需的发明文化。"

演绎、归纳和溯因推理

来看一些简单的逻辑例子:比如你走出家门,注意到街道是湿的。你的第一个想法是一定是下雨了。但是天气晴朗,人行道干燥,因此您立即排除了下雨的可能性。当你往旁边看时,你看到一辆洒水车停在街上。您得出结论,道路是湿的,因为洒水车冲洗了它。

人工智能的神话在走入死胡同:为什么计算机不能像人类那样思考?

这是一个人的 " 推理 " 过程,从观察到结论的行为,是智能生物的基本功能。我们不断地根据我们所知道的和我们所感知的来推断事物。这大多数情况是在潜意识中发生的,在我们的思想背景中,没有重点和直接关注。" 任何推理系统都必须具有一些基本的智能,因为使用已知的和观察到的来更新信念的行为不可避免地与我们所说的智能相关联," 拉森表示。

AI 研究人员的系统基于两种类型的推理机制:演绎和归纳。演绎推理使用先验知识来推理世界。这是符号人工智能的基础,也是人工智能早期几十年研究人员的主要关注点。工程师通过赋予它们一组预定义的规则和事实来创建符号系统,人工智能使用这些知识来推理它接收到的数据。

在过去十年中,归纳推理在人工智能研究人员和科技公司中越来越受到关注,它是通过经验获取知识。机器学习算法是归纳推理引擎。在相关示例上训练的 ML 模型将找到将输入映射到输出的模式。近年来,人工智能研究人员使用机器学习、大数据和高级处理器来训练超出符号系统能力的任务模型。

人工智能的神话在走入死胡同:为什么计算机不能像人类那样思考?

第三种推理,溯因推理,最早由美国科学家查尔斯 · 桑德斯 · 皮尔斯在 19 世纪提出。溯因推理是一种认知能力,可以提出直觉和假设,做出比随机刺探真相更好的猜测。

例如,街道变湿的原因可能有很多(包括一些我们以前没有直接经历过的),但溯因推理使我们能够选择最有希望的假设,快速消除错误的假设,寻找新的假设并得出可靠的结论。正如 Larson 在《人工智能的神话》中所说的那样," 我们猜测,在有效无限可能性的背景下,哪些假设看起来可能或合理。"

本文来自投稿,不代表本人立场,如若转载,请注明出处:/ai/180089.html