人脑祛魅_On Intelligence书评-查字典图书网
查字典图书网
当前位置: 查字典 > 图书网 > 科技 > On Intelligence > 人脑祛魅
讷德 On Intelligence 的书评 发表时间:2015-11-06 14:11:53

人脑祛魅

Hawkings坚信人脑的基本原理是简单的,是可以通过一个简洁优雅的理论框架来解释清楚的。一旦我们找到了框架的真相,我们就可以创造出媲美人脑的智能机器。

然而,在真相揭露之前,人类可能会被大量无关紧要的细节所困扰。人类在细节领域长期耕耘,会发现更多的(无关)细节,这让人类越来越困扰。 Hawkings认为脑科学界长期以来缺少一个高屋建瓴的统一理论框。传统学者们认为人脑是如此复杂,主张我们应该分区域,分功能逐步理解:视觉,听觉,运动,逻辑,语言,等等。这种观点推动了fMRI技术的广泛应用。但作者认为这种研究思路是有问题的。他认为neocortex以一个统一的简单的算法来处理各种不同的信号:无论是语言,视听,触觉,等等。人脑cortex确实在不同功能区域结构略有不同,不是因为这些区域各自又不同的算法,而是这些区域的传感输入信号不同。这些信号会被同一个“算法”处理,但是不同的输入信号会导致不同的神经元连接。

大脑并不需要一个“中文”算法来处理中文,“英文”算法来处理英文,“数学”算法来做数学运算。所有这些脑功能最后都归结于一个统一的而又简单的算法。正是这个算法的简单性,导致了它适用于各种信号处理,导致了人类大脑具有很强的可塑性。

Hawkings在书中提出一个实验性的理论框架来解释“智能”。简单说来就是“记忆--预测”框架。(memory-prediction)。 作者认为,智能的表征不在于“智能行为”(intelligent behavior), 而在于能够做预测。作者不赞同图灵实验对智能的鉴定,因为图灵实验是基于行为的。

人如何做预测?作者认为通过记忆!可是记忆是基于过去经验事实的,那么如何预测当下,预测未来? 作者认为我们的记忆具有序列性:我们的所有记忆其实都是一个序列。我们的所有记忆就是序列的序列。正因为我们记住了一个序列,所以我们看到序列中的一段,可以对下一段做预测。记忆--预测模型的另一重要基础是我们记住的是事物的不变量(invariane representation)。我们很少去记忆某一只狗长什么样,我们有一个关于狗的总体记忆模型。要做到不变量,hierarchy 就很重要:在hierarchy中,上层的代表稳定的,抽象的,概括的,下层的代表不稳定的,具体的,个别的。上层和下层之间有feedback loop。

其实这个模型和所谓的深度学习模型非常类似。例如,在图像识别的deep learning模型中,底层的模型是像素模型,向上是线条(edge)模型,再向上是parts, 再向上是一个事物的整体。有趣的是,作者在书中对于三层神经网络很不看好,他所在的时代多层神经网络还没有成功实现。Hinton等人的成功其实也就是此书出版后一两年的事。

作者觉得自己这个模型简洁而强大,概括起来就是spatial, temporal, hierarchical, associative, sequential, invariance,feedback loop, symmetric.

进而,作者开始解释“创造性”无非就是类比预测(analogy prediction)。 把已有的模式以出人意料的方式移植到新的领域。作者还试图解释想象力,幻觉,意识等意识活动。

最后,作者觉得大脑其实很简单,相信我们有能力制造出媲美人脑甚至超越人脑的智能机器。里面有关于智能汽车的讨论,十年以后来看,八九不离十。

展开全文
有用 1 无用 0

您对该书评有什么想说的?

发 表

推荐文章

猜你喜欢

附近的人在看

推荐阅读

拓展阅读