智能源于人、拓于工——人工智能发展的一点思考

蒋昌俊 , 王俊丽

中国工程科学 ›› 2018, Vol. 20 ›› Issue (6) : 93 -100.

PDF (869KB)
中国工程科学 ›› 2018, Vol. 20 ›› Issue (6) : 93 -100. DOI: 10.15302/J-SSCAE-2018.06.015
专题研究

智能源于人、拓于工——人工智能发展的一点思考

作者信息 +

Intelligence Originating from Human Beings and Expanding in Industry— A View on the Development of Artificial Intelligence

Author information +
文章历史 +
PDF (889K)

摘要

人工智能(AI)旨在模拟人脑中信息存储和处理机制等智能行为,使机器具有一定程度的智能水平。随着互联网、大数据、云计算和深度学习等新一代信息技术的飞速发展,目前AI领域的研究和应用已经取得重要进展。本文将深入分析与AI密切相关的计算机科学、控制科学、类脑智能、人脑智能等学科或领域之间的交融与历史演进;指出神经科学、脑科学与认知科学中有关脑的结构与功能机制的研究成果,为构建智能计算模型提供了重要的启发,并从逻辑模型及系统、神经元及网络模型、视觉神经分层机制等方面,分别阐述智能的驱动与发展;最后从互联网的计算理论、AI的演算和计算的融合、类脑智能的模型和机理、AI对神经科学的推动作用、反馈计算的算法设计与控制系统的能级五个方面,对AI的发展趋势进行了展望。

Abstract

Artificial Intelligence (AI) aims to simulate information storage and processing mechanisms and other intelligent behaviors of a human brain, so that the machine has a certain level of intelligence. With the rapid development of the new generation of information technology, such as the Internet, big data, cloud computing, and deep learning, researches and applications of AI have made and are making important progresses. In this paper, the historical integration and evolution of computer science, control science, brain-inspired intelligence, human brain intelligence, and other disciplines or fields closely related to AI are analyzed in depth; then it is pointed out that the research results on the structure and functional mechanism of brain from neuroscience, brain science and cognitive science provide some important inspirations for the construction of an intelligent computing model. Moreover, the drives and developments of AI are discussed from the aspects of logic model and system, neuron network model, visual nerve hierarchy mechanism, etc. Finally, the development trend of AI is prospected from the following five aspects: the computational theory of the Internet, the integration of AI calculus and computation, the model and mechanism of brain-inspired intelligence, the impetus of AI to neuroscience, and the algorithm design of feedback computation and the energy level of the control system.

关键词

人工智能 / 人脑智能 / 类脑智能 / 智能发展 / 学科演进

Key words

人工智能 / 人脑智能 / 类脑智能 / 智能发展 / 学科演进 / artificial intelligence / human brain intelligence / brain-inspired intelligence / intelligence development / discipline evolution

引用本文

引用格式 ▾
蒋昌俊,王俊丽. 智能源于人、拓于工——人工智能发展的一点思考[J]. 中国工程科学, 2018, 20(6): 93-100 DOI:10.15302/J-SSCAE-2018.06.015

登录浏览全文

4963

注册一个新账户 忘记密码

一、前言

人工智能(AI)是与计算机和控制学科密切相关的一个研究领域,20 世纪 70 年代以来被称为世界三大尖端技术之一(空间技术、能源技术、AI),也被认为是 21 世纪三大尖端技术(基因工程、纳米科学、AI)之一。随着信息技术的不断发展与向生产生活、经济社会发展各方面的渗透,特别是在互联网、大数据和云计算等新一代信息技术的飞速发展基础上,AI 以模拟人脑中信息存储和处理机制等智能行为,使机器具有一定程度上的智能水平。目前 AI 领域的研究已经取得重要进展,特别是由于擅长发现高维数据中的复杂结构,深度学习正被应用于科学、商业和政府等领域,对信息科学领域的发展起到了很重要的推动作用。

本文将从两个维度深入剖析和解读 AI 发展过程,第一个维度是横向视角,从来自于神经科学、人脑智能等智能启发的源头追溯,探讨了 AI 各个分支重要的发展历程,综合分析 AI 的发展和演进过程;第二个维度是纵向视角,从与 AI 密切相关的几个学科,包括计算机科学、控制科学、人脑智能、类脑智能等一些相关的科学的发展,通过它们在不同历史时期与 AI 之间的相互作用,分析这些学科或领域之间的交融与历史演进,更清晰地对 AI的本质进行认知。

二、智能的定义与历史演进

(一)智能的定义

在心理学领域,将智能定义为智力和能力的总称。其中,“智”指进行认识活动的某些心理特点,“能”则指进行实际活动的某些心理特点 [1]。下面将从与智能密切相关的人脑智能、AI、类脑智能三个方面探讨智能的定义。

人脑是由一千多亿个高度互联的神经元组成的复杂生物网络,是人类分析、联想、记忆和逻辑推理等能力的来源。人脑智能正是反应人类大脑具有的感知世界、理解世界和管理世界的智慧和能力,其研究主要围绕人类智能活动的规律,揭示大脑信息表征、转换机理和学习规则,以期建立大脑信息处理过程的智能计算模型。伴随着神经解剖学的发展,人脑信息处理的奥秘也正在被逐步揭示。在此基础上,AI 是模拟人类大脑信息处理、记忆、逻辑推理等智能行为的基本理论、方法和技术,通过应用计算机的软硬件技术,构造具有一定智能的人工系统,让计算机去完成以往需要人的智力才能胜任的工作。而类脑计算则渴求通过模仿人类神经系统的工作原理,开发出快速、可靠、低耗的运算技术。借助神经科学、脑科学与认知科学的研究成果,建立智能计算模型,使机器掌握人类的认知规律,是“类脑智能”的研究目标。

(二)智能的历史演进

1950 年,“AI 之父”——英国人图灵(A. M.Turing)的一篇里程碑式论文《机器能思考吗?》为人类带来了一个新学科——AI [2]。在 1956 年夏季的“达特茅斯会议”中,以麦卡锡(J. R. McCarthy)、明斯基(M. Minsky)、罗切斯特(N. Roches-ter)和香农(C. Shannon)等为首的一批有远见卓识的年轻科学家,共同研究和探讨用机器模拟智能的一系列问题,首次提出了 AI 这一术语,标志着 AI的正式诞生。

AI 作为一门新兴的科学技术,其发展演进过程与信息科学领域的演进过程密切相关,特别是计算机科学、控制科学这两大学科。在 AI 的发展中,不同学科背景的学者对 AI 做出了各自的理解,提出了不同的观点。为此,本文将首先综合分析计算机科学、AI、控制科学发展过程中的主要演变环节和相互作用,如图 1 所示。

图 3 智能版块“五线谱”

(一)逻辑模型及系统

人类神经系统具有逻辑思维的潜力,可以通过学习和训练,逐渐形成具体的逻辑思考能力。以人的逻辑思维和推演过程为智能驱动,经历了20 世纪 50 至 70 年代初的逻辑推理与定理证明、之后发展到 20 世纪 80 年代出现大量的专家库和知识库、到 1998 年出现语义网、2012 年谷歌提出知识图谱等。可以看出,在这一层面 AI 领域通过模拟和学习人类的逻辑推理能力,经历了逻辑推理与定理证明、专家库、知识库、语义网、知识图谱等一些重要的历程。

(二)神经元及网络模型

人的大脑通过神经元传输信息,数量巨大的神经元构成了神经网络。以神经元及网络模型 [5] 为智能驱动,20 世纪 50 年代出现模仿人类神经元模型的感知机 [6~8];之后发展了模拟人脑信息传递与处理过程的多层感知机 [9]、Hopfield 网络 [10]、波尔兹曼机 [11],这些模型在当时都引起了较大轰动;在此基础上,发展了可以通过学习获得所需要的信息处理能力的 BP 算法 [12],用于训练多层神经网络,以解决复杂学习问题。可以看出,在这一层面 AI 领域基于模仿生物大脑的结构和功能构建信息处理系统,发展了感知机、多层感知机、Hop-field 网络、BP 算法等一系列重要的人工神经网络理论与方法。

(三)神经分层机制

以神经分层机制 [13] 为智能驱动,探索新型的神经网络架构,具有代表性的成果有:1989 年提出的模拟人脑可视皮层信息分层处理机制的卷积神经网络 [14]、2012 年在百万量级的 ImageNet 数据集合上夺冠的受限波尔兹曼机 [15]、2017 年提出一种新型神经网络架构——胶囊网络等,在计算和智能模拟能力上取得重要突破。在深度学习算法芯片方面,有代表性的包括寒武纪系列芯片 [16] 和谷歌的张量处理器(TPU)。可以看出,在这一层面 AI领域基于人脑在脑区尺度进行层次化信息处理的机制,发展了卷积神经网络、受限玻尔兹曼机、胶囊网络等一系列重要的深度学习模型和架构。

(四)脉冲神经网络模型

以脉冲神经网络模型为智能驱动,基于人脑神经元之间突触的信号传递机制与突触可塑性法则,探索新型的脉冲神经网络模型 [17,18] 和神经拟态架构,代表性成果有 IBM TrueNorth [19] 计算机架构,在并行计算中实现更高效的通信;忆阻器 [20]作为一种特殊的电子元器件,具有与神经系统突触十分相似的传输特性 [21],同时具有布尔逻辑运算的功能 [22],已被应用于脉冲神经网络中构建多记忆突触结构 [23]。可以看出,在这一层面 AI 领域基于更高级的生物神经传递机制的模拟,发展了脉冲神经网络和以 IBM TrueNorth、忆阻器为代表的一系列神经拟态架构。

(五)学习与记忆机制

1997 年提出的长短时程记忆网络(LSTMs)是模拟人脑神经系统短期记忆与长期记忆机制,以学习与记忆机制为智能驱动,探索新型的神经网络模型 [24]。另一方面,神经科学家发现大脑神经系统中存在着神经元位置细胞和网格细胞,参与大脑记忆活动。受此启发,2018 年提出的基于网格细胞的定位模拟系统 [25] 能自动生成与大脑细胞活动非常相似的网格模式,并帮助小鼠自动找到捷径。可以看出,在这一层面 AI 领域基于模拟人类大脑通过学习来获取和存储知识的能力,取得了 LSTMs 和网格细胞定位系统等重要的成果。

(六)语言模型

以语言模型为智能驱动,探索机器的语义信息加工编码机制 [26],发展了语义 Web 和知识图谱,将概念和实体组成具有层次的网络系统;另一方面,在大脑神经系统视觉字母识别 [27] 的基础上,探索基于神经网络的统计语言模型,发展了神经网络语言模型(NNLM)[28]、词嵌入 [29]、基于深度神经网络的字母识别计算模型 [30] 等,广泛应用于各种自然语言处理问题。可以看出,在这一层面AI 领域基于模拟人类大脑对语言的学习和组织能力,分别发展了语义 Web、知识图谱和 NNLM、词嵌入等重要成果。

(七)进化与强化

以进化与强化为智能驱动,基于模拟生物进化过程中“优胜劣汰”的自然选择机制和遗传信息的传递规律等,发展了一系列的遗传算法、进化策略、蚁群算法等进化方法,通过自然演化寻求最优解;另一方面,受控制理论 [31] 发展的影响,形成了动态规划和马尔科夫决策过程等最优控制方法,之后发展了 Q 学习、状态 – 动作 – 奖励 – 状态 –动作(SARSA)算法、深度强化学习网络(DQN)等强化学习方法 [32],通过与环境进行交互获得的奖赏以指导行为。可以看出,一方面借鉴生物进化和遗传学理论,发展了遗传算法、进化策略、蚁群算法等进化方法;另一方面,基于模拟人类与外界环境交互式学习过程,发展了动态规划、Q 学习、SARSA 算法、DQN 等一系列重要的强化学习方法。

四、人工智能的现状与趋势

(一)人工智能的现状

AI 受到各国政府的高度重视。2016 年 10 月,美国白宫发布报告《国家人工智能研究和发展战略计划》,提出了美国优先发展 AI 的七大战略方向:投资研发战略、人机交互战略、社会影响战略、安全战略、开放战略、标准战略、人力资源战略,将AI 上升到国家战略层面。2017 年 7 月,我国国务院印发《新一代人工智能发展规划》,提出了面向2030 年我国新一代 AI 发展的指导思想、战略目标、重点任务和保障措施,部署构筑我国 AI 发展的先发优势,加快建设创新型国家和世界科技强国。2017 年 2 月,中国工程院院刊《信息与电子工程前沿(英文)》出版了“AI 2.0”专题,对“AI 2.0”中所涉及的大数据智能、群体智能、跨媒体智能、混合增强智能和自主智能等进行了深度阐述 [33~39]。

(二)人工智能的发展趋势

首先是对 AI 发展特点的认知,如图 4 所示。传统的 AI 注重从感知到认知的过程,实现从逻辑到计算的不断提升。当前的 AI 由弱到强的智能,是从闭环到开环、从确定到不确定的系统。未来的AI 将是从理性到感性,从有限到无限,从专门到综合。这样的过程更具有挑战性,所以 AI 发展之路还很漫长,现在只是始于足下,深入探索传统 AI,并为向当前 AI 和未来 AI 迈进奠定基础。

图 4 AI 发展的特点

目前,AI 的基础理论和技术已取得了一系列重要的研究成果。未来计算机科学、AI、类脑智能、人脑智能的研究还有许多亟待解决的问题与挑战。1. 互联网的计算理论

当前互联网基础设施的不断完善和提升,应用创新和商业模式创新层出不穷,在智能交通、互联网金融、智慧医疗等领域已经取得了一些初步应用成果。但是互联网计算理论的研究有待加强。早期的单机系统具有坚实的理论基础,但互联网是一个开放的不确定系统,以智能应用为垂直场景,在确定有效前提或边界的条件下,建立互联网的计算理论将具有挑战性。

2. AI 的演算和计算的融合

尽管深度神经网络在语音识别和图像识别等任务中显示出很大的成功,现有的深度学习结构还远远不及生物神经网络结构复杂,目前的神经网络模型大都侧重于数据的计算层面,而事实上一个高级的智能机器应该具有环境感知与逻辑推理的能力。将 AI 的演算和计算进行融合,反映人脑的交互迭代过程,这样的交互和融合将是下一步的主要研究方向。

3. 类脑智能的模型和机理

在构建类脑认知模型中,目前脉冲神经网络的神经元以电脉冲的形式对信息进行编码,更接近真实神经元对信息的编码方式,能够很好地编码时间信息。但由于脉冲训练缺乏高效的学习方法而且需要耗费大量算力,在性能上与深度网络等模型还存在一定差距。未来,两类模型仍需要不断从脑科学中吸取营养并不断融合,发展性能更好、效能更高的新一代神经网络模型。

4. AI 对神经科学的推动作用

正如上文所述,目前 AI 得以在许多方面达到人类水平,与来自神经科学的启发是密不可分的。心理学家和神经科学家发现与揭示的关于大脑智力的相关机制,激发了 AI 研究人员的兴趣,并提供了初步线索。另一方面,通过 AI 领域定量地形式化研究,对神经科学智能行为研究的必要性和充分性提供洞察,例如,依据机器学习的重要进展提出假说:人类大脑可能是由一系列互相影响的成本函数支撑的混杂优化系统 [40],将为神经科学的实证研究提供新的线索。因此,未来神经科学与 AI 之间将有更好的合作并带来良性循环。

5. 反馈计算的算法设计与控制系统的能级

计算机科学基础的理论有:可计算性理论、计算复杂性理论和算法等,定义了机器不能算和能算、计算的时(空)开销层次、算法的设计优化,建立了计算能行和度量开销的计算理论。还有形式语言自动机理论,定义了有限自动机、上下文无关自动机、上下文有关自动机、图灵机四个能级,建立了机器、语言和文法的能级等价及层次关系,对计算机科学有着深刻的影响,特别是对程序设计语言的设计和编译方法等方面具有重要的作用。而控制科学的优势是反馈机制,在迭代过程中不断修正迭代梯度等,快速接近目标。但在做控制器设计时缺少相应的能级理论,反过来,在计算机的迭代计算过程中,从起点到终点,给定迭代梯度,没有中间过程的反馈修正。因此,计算机科学和控制科学之间不断地互相借鉴,创造出更智能、更有效的理论方法,值得下一步探索研究。

五、结语

本文围绕 AI 的发展和主要研究进展,深入探讨了与 AI 密切相关的计算机科学、控制科学、类脑智能、人脑智能等学科之间的交融与历史演进;结合脑神经科学对 AI 的潜在启发,从逻辑模型及系统、神经元网络及模型、视觉神经分层机制等角度阐述 AI 的历史演进;最后,分析了 AI 的发展现状,并指出其特点和未来发展趋势。可以说,以神经科学、脑科学与认知科学所揭示的有关脑结构与功能机制的研究成果为构建智能计算模型提供了重要的启发,为智能之源;而以计算和控制的数学物理等形式化、模型化开展分析与优化,为智能之工,概括起来即为 AI。

参考文献

[1]

林崇德, 杨治良, 黄希庭. 心理学大辞典 [M]. 上海: 上海出版社, 2003. Lin C D, Yang Z L, Huang X T. A dictionary of psychology [M]. Shanghai: Shanghai Publishing House, 2003.

[2]

Turing A M. Computing machinery intelligence [J]. Mind, 1950, 59: 433–460.

[3]

Chomsky N. Three models for the description of language [J]. IEEE Transactions on Information Theory, 1956, 2(3): 113–124.

[4]

Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks [J]. Science, 2006, 313(5786): 504–507.

[5]

McCulloch W S, Pitts W. A logical calculus of the ideas immanent in nervous activity [J]. The Bulletin of Mathematical Biophysics, 1943, 5(4): 115–133.

[6]

Hebb D O. The organization of behavior [M]. New York: Wiley, 1949.

[7]

Rosenblatt F. The perceptron: A probabilistic model for information storage and organization in the brain [J]. Psychological Review, 1958, 65(6): 386–408.

[8]

Minsky M, Papert S. Perceptrons [M]. Oxford: MIT Press, 1969.

[9]

Werbos P J. Backpropagation through time: What it does and how to do it [J]. Proceedings of the IEEE, 1990, 78(10): 1550–1560.

[10]

Hopfield J J. Neural networks and physical systems with emergent collective computational abilities [J]. Proceedings of the National Academy of Sciences, 1982, 79(8): 2554–2558.

[11]

Ackley D H, Hinton G E, Sejnowski T J. A learning algorithm for elmholtz machines [J]. Cognitive Science, 1985, 9(1): 147–169.

[12]

Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors [J]. Nature, 1986, 323: 533–536.

[13]

Hubel D H, Wiesel T N. Early exploration of the visual cortex [J]. Neuron, 1998, 20: 401–412.

[14]

Lecun Y, Boser B, Denker J S, et al. Backpropagation applied to handwritten zip code recognition [J]. Neural Computation, 1989 (1): 541–551.

[15]

Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks [C]. Nevada: International Conference on Neural Information Processing Systems, 2012.

[16]

Chen T, Du Z, Sun N, et al. DianNao: A small-footprint highthroughput accelerator for ubiquitous machine learning [C]. Salt Lake City: Proceedings of the 19th International Conference on Architectural Support for Programming Languages and Operating Systems, 2014.

[17]

Carver M. Analog VLSI and neural systems [M]. Boston: AddisonWesley Mass, 1989.

[18]

Wolfgang M. Networks of spiking neurons: The third generation of neural network models [J]. Neural Networks, 1997, 10(9): 1659–1671.

[19]

Merolla P A. A million spiking-neuron integrated circuit with a scalable communication network and interface [J]. Science, 2014, 345 (6197): 668–673.

[20]

Chua L O. Memristor—The missing circuit element [J]. IEEE Transactions on Circuit Theory, 1971, 18(5): 507–519.

[21]

Dmitri B S, Gregory S S, Duncan R S. The missing memristor found [J]. Nature, 2008, 453: 80–83.

[22]

Borghetti J. Memristive switches enable stateful logic operations via material implication [J]. Nature, 2010, 464: 873–876.

[23]

Irem B, Manuel L G, Nandakumar S R, et al. Neuromorphic computing with multi-memristive synapses [J]. Nature Communication, 2018, 9: 2514–2529.

[24]

Hochreiter S, Schmidhuber J. Long short-term memory [J]. Neural Computation, 1997, 9(8): 1735–1780.

[25]

Andrea B, Caswell B, Benigno U, et al. Vector-based navigation using grid-like representations in artificial agents [J]. Nature, 2018, 557: 429–433.

[26]

Collins A M, Quillian M R. Retrieval time from semantic memory [J]. Journal of verbal learning and verbal behavior, 1969, 8(2): 240–248.

[27]

McClelland J, Rumelhart D. An interactive activation model of context effects in letter perception: Part 1. An account of basic findings [J]. Psychology Review, 1981, 88: 375–407.

[28]

Bengio Y, Ducharme R, Vincent P, et al. A neural probabilistic language model [J]. Journal of Machine Learning Research, 2003, (3): 1137–1155.

[29]

Mikolov T, Chen K, Corrado C, et al. Efficient estimation of word representation in vector space [C]. Florida: Proceedings of Workshop at ICLR, 2013.

[30]

Testolin A, Stoianov I, Zorzi M. Letter perception emerges from unsupervised deep learning and recycling of natural image features [J]. Human Behaviour, 2017, 1(9): 657–664.

[31]

Wiener N. Cybernetics: Or control and communication in the animal and the machine [M]. Cambridge: The MIT Press, 1948.

[32]

Minsky M L. Theory of neural-analog reinforcement systems and its application to the brain-model problem [D]. Princeton: Princeton University (Doctoral dissertation), 1954.

[33]

Zhuang Y, Wu F, Chen C, et al. Challenges and opportunities: From big data to knowledge in AI 2.0 [J]. Frontiers of Information Technology & Electronic Engineering, 2017, 18(1): 3–14.

[34]

Li W, Wu W, Wang H, et al. Crowd intelligence in AI 2.0 era [J]. Frontiers of Information Technology & Electronic Engineering, 2017, 18(1): 15–43.

[35]

Peng Y, Zhu W, Zhao Y, et al. Cross-media analysis and reasoning: Advances and directions [J]. Frontiers of Information Technology & Electronic Engineering, 2017, 18(1): 44–57.

[36]

Zheng N, Liu Z, Ren P, et al. Hybrid-augmented intelligence: Collaboration and cognition [J]. Frontiers of Information Technology & Electronic Engineering, 2017, 18(2): 153–179.

[37]

Tian Y, Chen X, Xiong H, et al. Towards human-like and transhuman perception in AI 2.0: A review [J]. Frontiers of Information Technology & Electronic Engineering, 2017, 18(1): 58–67.

[38]

Zhang T, Li Q, Zhang C, et al. Current trends in the development of intelligent unmanned autonomous systems [J]. Frontiers of Information Technology & Electronic Engineering, 2017, 18(1): 68–85.

[39]

Li B, Hou B, Yu W, et al. Applications of artificial intelligence in intelligent manufacturing: A review [J]. Frontiers of Information Technology & Electronic Engineering, 2017, 18(1): 86–96.

[40]

Marblestone A H, Wayne G, Kording K P. Towards an integration of deep learning and neuroscience [J]. Frontiers in Computational Neuroscience, 2016, 10(5): 1–60.

基金资助

中国工程院咨询项目“工程科技颠覆性技术战略研究”(2017-ZD-10);国家自然科学基金重大研究计划集成项目(91218301)()

AI Summary AI Mindmap
PDF (869KB)

3467

访问

0

被引

详细

导航
相关文章

AI思维导图

/