有责说明:写出精品文章是笔者创作的目标,准确详实是最基本的要求,因此我对撰写发布的内容的准确性负责,有错误和不当之处请大家指出!如果您觉得文章写的还不错,值得转载转发,请注明出处。谢谢支持!
得益于大模型技术的突破,近期人工智能技术在图文生成、信息检索、语音助手、辅助编程、科研试验等方面的应用呈爆发式增长,给人们带来全新的智能体验,世界范围内各大厂商竞相在大模型研发上投入资源,提升生产效能和产品的智能化水平。对于大多数非人工智能专业的同志来讲,人工智能技术是神秘复杂的,从弄懂基本的技术原理到实现一个人工智能算法,涉及数学、逻辑学、计算机科学、软件编程、硬件集成等领域的知识和技能。但人工智能技术看似复杂,其基本技术原理却是简单直接的,而且在笔者看来,人工智能技术发展到今天这样的形态也存在其必然性,当前形态也不是人工智能技术的终点,可以说我们离终点的距离还是未知的。今天这篇文章,我们就以时间线为轴,一起研阅人工智能技术的发展历程,总结人工智能三大技术路线的基本原理,从而对如今的人工智能技术有一个基础性的认识,并对人工智能技术的未来发展方向做一个展望。2 先上干货
首先,人工智能是计算机科学的一个分支,是当前计算机科学发展的重要方向,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用的一门科学,该领域的研究包括机器人、语言识别、图像识别、自然语言处理等。相比于过往的计算机技术,人工智能技术追求的是机器计算处理的自主性,在无需人事先编程和实时指令的条件下应对任务环境中的各种情况和问题,“让人省心”地独立执行任务。人工智能技术正式作为一个学科领域开始研究始于1956年的达特茅斯会议,会议确定了Artificial Intelligence (AI)来代表用机器来模仿人类学习以及其他方面智能的研究。为了实现这一研究目标,科学家们大致开辟出了三条技术路线——符号主义、联接主义和行为主义。
其中符号主义是最先投入应用的,符号主义启发自人类的思维过程,即认知和思维的基本单元是符号,认知过程就是在符号表示上的一种运算,因此只要人们将任务环境的要素都抽象成符号,并且告知机器这些符号的相互关系和作用机制,那机器就可以通过符号推演的方式不断更新任务系统的状态,或者从环境中推断出一定的结论。基于符号主义智能算法的典型代表是启发式算法、专家系统和知识工程。符号主义的优势是具有可解释性,因为符号主义智能系统中的所有知识和规则都是人定的,推理过程很清晰,擅长实现某一个专业领域的智能处理,尤其适合易于符号化、逻辑关系较强的任务环境(例如棋牌、游戏、医学初诊、数学推理等),劣势在于感知环境的能力较弱,依赖人工输入条件、知识和规律,所以对于图像、语音识别这样的偏模拟信号难以符号化的场景符号主义的表现就不灵了。例如2010年前的语音助手大部分都是符号主义的产品,难以应对个性需求,表现地很“智障”。联接主义的起源也比较早,相比于符号主义启发自人类的思维过程,联接主义则是模仿人类思维的生物基础——大脑。通过解剖,科学家们发现了生物神经网络的基本组成、结构和信号传递机制——众多的神经元、广泛的连接和脉冲。受生物神经网络启发,科学家们先后提出了MP模型、多层网络、感知机等人工神经网络模型,可以解决简单的线性和非线性分类问题,再后来提出的反向传播算法解决了多层神经网络如何训练(学习)的问题,递归神经网络(RNN)、卷积神经网络(CNN)、长短期记忆模型(LSTM)等网络结构相继被提出,此时人工神经网络已经能够在简单的数字识别、语音识别、信号处理、规律预测等问题上应用,进入21世纪计算机和网络技术的飞速发展为人工神经网络带来了更强的算力和海量的样本数据,其中ImageNet数据集和GPU显卡在神经网络训练中的运用大大促进了人工神经网络的发展,应用的复杂度和广度进一步提升,再后来生成对抗网络(GAN)、残差网络(ResNet)、深度强化学习等更加复杂先进的概念也被提出,2017年基于Transformer架构的语言模型被Google Brain的科学家提出制造了人工神经网络关键的转折——大模型,2018年OpenAI和Google基于Transformer架构先后发布了GPT和BERT,彻底引爆了大模型的研发,方兴未艾。行为主义作为一条人工智能技术路线发展要晚于符号主义和联接主义,起源于20世纪40年代的控制论,到20世纪末才以人工智能新学派的面孔出现。相比于前两者从思维过程和生物原理上模仿,行为主义的出发点则更直接——行为上模仿,认为智能的行为是智能的外部表现,可以进行观察和模拟(机器观察外部环境并做出正确反应),追求机器行为与人类行为的相似性,而非内部工作原理的一致性。行为主义的代表作首推布鲁克斯的六足行走机器人,是一个基于感知-动作模式模拟昆虫行为的控制系统。强化学习是行为主义最具代表性的算法,强化学习的方法也成功运用在人工神经网络的训练中。现在比较有名的研究成果有波士顿动力机器人、国内宇树科技机器人等,这些机器人的智能并非来源于自上而下的大脑控制中枢,而是来源于自下而上的肢体与环境的互动。
3 展开讲讲
这一部分,笔者分三条技术路线,以时间线为轴通过关键事件的叙述概述出其技术发展路径(历史事件在很多文章中总结都很全面了,在此我引用大家的总结并重新按技术路线组织,以更好地了解这种技术路线的原理和关键所在)。从1956年达特茅斯会议确定人工智能这一研究方向,到今天如火如荼的大模型,从应用的角度来看,人工智能技术在这近70年的时间里取得不小的进步,从概念走向了实际应用,从不好用到好用,更重要的是在应用需求的推动下,人工智能的发展势头有增无减,人类已经在打开“潘多拉魔盒”的过程中尝到了甜头,就一定会继续下去。3.1 符号主义的发展历程
符号主义人工智能算法的技术路径大概是启发式算法、专家系统、知识工程理论与技术,符号主义的发展特别依赖于计算机的存储和计算能力,计算机的能力越强,基于符号主义的系统推理的速度就越快,存储的知识和规则也越多。符号主义曾长期一枝独秀(支撑了前两次浪潮),为人工智能的发展作出重要贡献,尤其是专家系统的成功开发与应用,对人工智能走向工程应用具有特别重要的意义(20世纪60年代后诞生了很多专家系统,实现了很多商业化应用)。到了20世纪80年代,符号主义系统基于规则和已有知识的“检索+推理”模式面对复杂的现实世界显得力不从心,同时个人计算机及互联网的发展运用也在一定程度上冲击了专家系统。到2012年后,由于深度神经网络的兴起,符号主义路线上的专家系统和知识工程等项目就显得没那么耀眼了,由“前台走向了幕后”,现在还在默默发展中。1955年赫伯特·西蒙(Herbert A. Simon)和艾伦·纽维尔(Allen Newell)研发出人类历史上第一个人工智能程序——“逻辑理论家LT(Logic Theorist)”,并在达特茅斯会议上进行了演示。它将每个问题都表示成一个树形模型,然后选择最可能得到正确结论的那一枝来求解问题,短短几个小时内,逻辑理论家程序就证明了《数学原理》书中52个定理中的38个。1957年,赫伯特·西蒙等人在“逻辑理论家”的基础上继续改进,推出了能够完成52个定理证明的通用问题解决器(General Problem Solver,GPS),人们似乎看到了通过符号系统实现通用人工智能的曙光,人工智能进入发展的第一个浪潮。1958年,为了更好地实现符号智能系统,美国计算机科学家约翰·麦卡锡正式发布了人工智能编程语言——LISP(LIST PROCESSING,意思是列表处理)。后来的很多知名AI程序,都是基于LISP开发的。约翰·麦卡锡
1959年,IBM科学家亚瑟·塞缪尔(Arthur Samuel)在自家首台商用计算机IBM701上,成功编写了一套西洋跳棋程序,并在1962年击败了当时全美最强的西洋棋选手罗伯特·尼雷,引起了轰动。它的核心技术是α-β剪枝搜索和自我对弈来学习评价函数,可以通过对大量棋局的分析,逐渐辨识出“好棋”和“坏棋”,从而提高自己的下棋水平。亚瑟·塞缪尔首次提出了“机器学习(Machine Learning)”的概念,被后人誉为“机器学习之父”。
1966年,美国麻省理工学院的约瑟夫·魏泽鲍姆(Joseph Weizenbaum),发布了世界上第一个聊天机器人——ELIZA,它由200行代码和一个对话库组成,可以针对提问中的关键词,进行答复。ELIZA其实没有任何智能可言,它基于规则运作,既不理解对方的内容,也不知道自己在说什么。ELIZA可以说是Siri、小爱同学等聊天机器人的鼻祖,因为最初的Siri等也是基于规则实现的。约瑟夫·魏泽鲍姆演示ELIZA
1968年,美国科学家爱德华·费根鲍姆(Edward Feigenbaum)提出了第一个专家系统——DENDRAL,可以帮助化学家判断特定物质的分子结构,并对“知识库”给出了初步的定义。这标志着专家系统的诞生,催生了人工智能的第二次浪潮。和DENDRAL差不多时间出现的专家系统,还有威廉·马丁(William Martin)开发的Macsyma,以及安东尼·赫恩(Anthony C. Hearn)开发的Reduce,这两套都是数学领域的专家系统(用于求解数学问题),都采用了约翰·麦卡锡的LISP语言进行开发。1972年,美国医生兼科学家爱德华·H·肖特利夫(Edward H. Shortliffe)创建了可以辅助医学诊断的专家系统——MYCIN。MYCIN也是基于LISP语言编写,拥有500多条规则,能够识别51种病菌,正确地处理23种抗菌素。1977年,爱德华·费根鲍姆在第五届国际人工智能联合会议上,提出了“知识工程(Knowledge Engineering)”的概念,进一步推动了专家系统的普及。进入1980年代,随着技术的演进,计算机的计算和存储能力增加,专家系统开始在各个行业爆发。1980年,卡耐基梅隆大学研发的专家系统XCON正式商用,为当时的计算机巨头公司DEC每年省下数千万美金。1983年,通用电气公司搞出了柴油电力机车维修专家系统(DELTA)。这个系统封装了众多资深现场服务工程师的知识和经验,能够指导员工进行故障检修和维护。当时,美国运通公司也搞了一个信用卡认证辅助决策专家系统,据说每年可节省2700万美金。总而言之,那时候的专家系统,是大公司趋之若鹜的神器。它能够带来实实在在的经济效益,所以,行业用户愿意为之投资,这是第二次AI浪潮的根本原因。1984年,美国微电子与计算机技术公司启动了“Cyc”项目,是一个“超级百科全书”项目,它试图将人类拥有的所有一般性知识都输入计算机,建立一个巨型数据库。截止2017年,它已经积累了超过150万个概念数据和超过2000万条常识规则,曾经在各个领域产生超过100个实际应用,它也被认为是当今最强人工智能IBM Waston的前身。1997年5月,IBM的“深蓝”(Deep Blue)以2胜1负3平的成绩,战胜国际象棋冠军卡斯帕罗夫,震惊了世界。“深蓝”其实是一台超级计算机,也是符号主义逻辑推理的一种实现。它可以在一秒内计算2亿步棋局的可能性,从中选择最优解,而且它还有许多国际象棋的专家帮助编写的程序,输入了大量的棋局和策略。“深蓝”战胜国际象棋冠军卡斯帕罗夫
2011年IBM 的沃森(Watson)问答系统在在《危险边缘》中战胜人类获得冠军,沃森系统将高级自然语言处理、信息检索、知识表示、自动推理和机器学习技术应用于开放问题解答领域,有100多种不同的技术用于分析自然语言,识别来源,查找和生成假设,查找和评分证据以及合并和排列假设。同年,苹果推出了自然语言问答工具 Siri。
3.2 联接主义发展历程
联接主义的发展历程是一个由简入繁的过程,从单个神经元模型(MP模型),到单层神经元(感知机),再到多层神经元网络,反向传播算法解决了多层网络的训练问题,再到各种各样的神经网络结构和学习策略,到最近的生成式对抗网络、自注意力机制、Transformer架构等在提高神经网络规模的基础上提升了计算的并行度,释放了大规模神经元模型的能力,引发了人工智能发展的新浪潮。人工智能的前两次浪潮主要由符号主义主导,但是到了20世纪80年代,越来越多的科学家意识到专家系统存在不足,想要实现真正的智能,就必须让系统自主学习,自此机器学习和神经网络(联结主义)加速崛起,逐渐取代专家系统(符号主义),成为人工智能的主要研究方向。人工智能原本由知识驱动的方式,逐渐转向由数据驱动。在这个过程中,除了学习算法和网络结构,数据和算力的建设发展也起到了基础性作用(基于现有的学习算法,大规模网络需要搭配大规模样本数据和大算力)。1943年,美国神经生理学家沃伦·麦卡洛克(Warren McCulloch)和数学家沃尔特·皮茨(Walter Pitts),基于人类大脑的神经网络,创建了一个形式神经元的计算机模型,并将其取名为MP模型。MP模型
1951年,马文·明斯基(Marvin Lee Minsky)和他的同学邓恩·埃德蒙(Dean Edmonds),建造了第一台神经网络机SNARC。1957年,美国康奈尔大学的心理学家和计算机科学家弗兰克·罗森布莱特(Frank Rosenblatt),在一台IBM-704计算机上,模拟实现了一种他发明的叫“感知机 (Perceptron) ”的神经网络模型。这种感知机神经网络的学习算法是依据输出的正确与否来直接调整权值(即参数)和偏置,而这种方法迁移到多层网络上并不好用。弗兰克·罗森布莱特和他发明的感知机机器
1969年,马文·明斯基(Marvin Lee Minsky)和西蒙·派珀特(Seymour Papert)写了一本书《感知机: 计算几何学导论》的书,对罗森布莱特的感知器提出了质疑。马文·明斯基认为:“神经网络具有很大的局限性(感知机无法解决线性不可分问题,例如异或问题),没有实际研究价值。”自此,联接主义被打入“冷宫”,相关研究举步维艰。直到人们在20世纪80年代认识到符号主义的局限性,又将精力转向了机器学习和人工神经网络。马文·明斯基
1982年,约翰·霍普菲尔德(John Hopfield)在自己的论文中重点介绍了Hopfield网络模型(模型原型早期由其他科学家提出),这是一种具有记忆和优化功能的循环(递归)神经网络(RNN,Recurrent Neural Network)。1986年,戴维·鲁梅尔哈特(David Rumelhart)、杰弗里·辛顿(Geoffrey Hinton)和罗纳德·威廉姆斯(Ronald Williams)等人共同发表了一篇名为《Learning Representations by Back-Propagation Errors(通过反向传播误差算法学习表征)》的论文。在论文中,他们提出了一种适用于多层感知器(MLP,Multi-Layer Perceptron)训练的算法,叫做反向传播算法(Back-Propagation,简称BP算法),这种算法实现了利用输出误差的梯度逐层将误差传到中间的每一层,并计算权值的修正量。杰弗里·辛顿和约翰·霍普菲尔德获得2024年诺贝尔物理学奖
1988年,贝尔实验室的Yann LeCun(国人常将其翻译为杨立昆)等人,提出了卷积神经网络(CNN,Convolutional Neural Network),这是一种专门用于处理图像数据的神经网络结构,每个卷积核代表着一种二维特征,卷积操作在图像上“扫描”从而识别特征。Yann LeCun
1990年,美国认知科学家、心理语言学家杰弗里·艾尔曼(Jeffrey Elman)提出了首个递归神经网络——艾尔曼网络模型。递归神经网络能够在训练时维持数据本身的先后顺序性质,非常适合于自然语言处理等带有时序特征的领域应用。1997年,德国计算机科学家瑟普·霍克赖特(Sepp Hochreiter)及其导师于尔根·施密德胡伯(Jürgen Schmidhuber)开发了属于递归神经网络的长短期记忆模型(LSTM,Long Short Term Memory)。1998年,Yann LeCun等人提出了LeNet,一个用于手写数字识别的7层卷积神经网络,初步展示了神经网络在图像识别领域的潜力。20世纪90年代,神经网络在开始商用于文字图像识别、语音识别、数据挖掘以及金融预测,带来了一定的经济效益。但当时受到计算资源、数据和网络规模的限制,应用范围和性能有限。进入21世纪,得益于计算机算力的进一步飞跃,以及互联网、大数据的爆发式增长,人工神经网络也趁势而上,进入了一个新的发展阶段。在笔者看来,开启这一新阶段的关键是两个人——杰弗里·辛顿和李飞飞。2006年,多伦多大学的杰弗里·辛顿在《Science》期刊上,发表了重要的论文《Reducing the Dimensionality of Data with Neural Networks(用神经网络降低数据维数)》,提出深度置信网络(Deep Belief Networks,DBNs)。深度学习(Deeping Learning)就此诞生,2006年也被后人称为深度学习元年,杰弗里·辛顿也因此被称为“深度学习之父”。2006年,在斯坦福任教的华裔科学家李飞飞,意识到了业界在研究AI算法的过程中,需要一个强大的图片数据样本库提供支撑。于是,2007年,她发起创建了ImageNet项目,号召民众上传图像并标注图像内容。2009年,大型图像数据集——ImageNet,正式发布。这个数据库包括了1400万张图片数据,超过2万个类别,为全球AI研究提供了强大支持。从2010年开始,ImageNet每年举行大规模视觉识别挑战赛,邀请全球开发者和研究机构参加,进行人工智能图像识别算法评比。ImageNet数据集
2010年Sinno Jialin Pan和杨强发表文章《迁移学习的调查》,详细介绍了迁移学习的分类问题。当以迁移学习的场景为标准时分为三类:归纳式迁移学习(Inductive Transfer Learning)、直推式迁移学习(Transductive Transfer Learning)、和直推式迁移学习(Unsupervised Transfer Learning)。深度迁移学习主要就是模型的迁移,一个最简单最常用的方法就是微调(Fine-Tuning),就是利用别人已经训练好的网络,针对目标任务再进行调整。近年来大火的BERT、GPT、XLNET等都是首先在大量语料上进行预训练,然后在目标任务上进行微调。2012年,杰弗里·辛顿和他的学生伊利亚·苏茨克沃(Ilya Sutskever)和亚历克斯·克里切夫斯基(Alex Krizhevsky)参加ImageNet大赛,他们设计的深度神经网络模型AlexNet在这次竞赛中大获全胜,以压倒性优势获得第一名(将Top-5错误率降到了15.3%,比第二名低10.8%),引起了业界轰动。并且,他们还成功将英伟达显卡用于模型训练,GPU在深度神经网络训练上表现出远超CPU的效能,这也引起了英伟达公司的注意(早在2009年我国的“天河一号”超级计算机就将英伟达的显卡用于异构计算中,并连续多届夺得了超算冠军,引起了不小的轰动)。杰弗里·辛顿和他的学生伊利亚·苏茨克沃和亚历克斯·克里切夫斯基
2014 年,蒙特利尔大学博士生伊恩·古德费洛(Ian Goodfellow)从博弈论中得到启发,提出了生成对抗网络(GANs,Generative Adversarial Networks)。生成对抗网络用两个神经网络即生成器(Generator)和判别器(Discriminator)进行对抗。在两个神经网络的对抗和自我迭代中,GAN会逐渐演化出强大的能力。2014年,谷歌公司收购了专注于深度学习和强化学习技术的人工智能公司——DeepMind公司。2016年3月,DeepMind开发的人工智能围棋程序AlphaGo(阿尔法狗),对战世界围棋冠军、职业九段选手李世石,并以4:1的总比分获胜,震惊了全世界。AlphaGo是深度学习网络跟蒙特卡罗搜索树(MCTS,Monte Carlo Tree Search)结合的胜利,AlphaGo中神经网络的采用了监督学习和强化学习,监督学习以人类专家棋谱为训练数据,强化学习分为两个阶段,策略学习和价值函数学习。策略网络被训练出来后,并不直接使用其作为动作的预测,而是还有一个蒙特卡洛树搜索的过程,AlphaGo将策略和价值网络结合到了蒙特卡洛树搜索算法中。2017年12月,Google机器翻译团队在行业顶级会议NIPS上,发表了一篇里程碑式的论文《Attention is all you need(你只需要注意力机制)》。论文提出只使用“自注意力(Self Attention)”机制来训练自然语言模型,并给网络整体架构起了个霸气的名字——Transformer(《变形金刚》的名字)。所谓“自注意力”机制,就是只关心输入信息之间的关系,而不再关注输入和对应输出的关系,这点的重要意义在于无需对样本进行人工标注,从而可以直接获得大量可用的数据集,这是一个革命性的变化。Transformer的出现,彻底改变了深度学习的发展方向。它不仅对序列到序列任务、机器翻译和其它自然语言处理任务产生了深远的影响,也为后来AIGC的崛起打下了坚实的基础。2018年6月,OpenAI发布了第一版的GPT系列模型GPT-1。同时,他们还发表了论文《Improving Language Understanding by Generative Pre-training(通过生成式预训练改进语言理解)》。GPT就是Generative Pretrained Transfommer的缩写,即生成式预训练变换器。紧接着,2018年10月,谷歌发布了有3亿参数的BERT(Bidirectional Encoder Representation from Transformers)模型,意思是“基于Transformers的双向编码表示”模型。2019年和2020年,OpenAI接连发布了GPT-2和GPT-3。2022年11月,OpenAI发布了基于GPT模型的人工智能对话应用服务——ChatGPT(也可以理解为GPT-3.5),彻底引爆了大模型的发展市场。继ChatGPT后,OpenAI又发布了GPT-4、GPT-4V、GPT-4 Turbo、GPT-4o,形成了如今难以撼动的领导者地位。谷歌虽然也发布号称最强AI大模型的Gemini。除了文本生成,生成式AI也积极向多模态发展,能够处理图像、音频、视频等多种媒体形式。例如DALL-E、Stable Diffusion、Midjourney等图像生成模型,Suno、Jukebox音乐生成模型,以及SoRa视频生成模型。
3.3 行为主义的发展历程
行为主义原本是心理学的一个学派,主要强调可观察行为的研究,而非内在心理过程。行为主义认为,所有的行为都可以通过环境刺激和对这些刺激的反应来解释,其忽略了心理状态、情感和思维过程的作用。在人工智能领域,这种观点启发学者通过观察和模拟外部行为来开发智能系统,而不是尝试复现人脑内部的复杂机制。由于笔者对行为主义这部分的研究不多,而且也没有查阅到把这一部分说的很清楚的资料,所以行为主义的发展历程写的较为模糊,现在行为主义除了在机器人控制领域发展较好外,它更多地是融合到其他人工智能技术中,最典型的代表就是强化学习。行为主义心理学的基本原则是所有的行为都可以视为对外部刺激的反应。这个概念最初由约翰·沃森在20世纪早期提出,并随后由B.F.斯金纳等人进一步发展。1938年前后,斯金纳通过他的实验,特别是著名的斯金纳箱实验,展示了如何通过奖励和惩罚来条件化动物行为。斯金纳试验
20 世纪 40-50 年代,控制论思想成为时代思潮的重要部分,维纳和麦克洛克等人提出的控制论和自组织系统,以及钱学森等人提出的工程控制论和生物控制论,影响了许多领域,为行为主义人工智能的发展奠定了理论基础,早期的研究工作重点是模拟人在控制过程中的智能行为和作用。20世纪60-70 年代的进展,控制论系统的研究取得一定进展,播下了智能控制和智能机器人的种子,如对自寻优、自适应、自镇定、自组织和自学习等控制论系统的研究,并进行“控制论动物”的研制,但尚未形成完整的理论体系。1966年,查理·罗森(Charlie Rosen)领导的美国斯坦福研究所(SRI),研发成功了首台人工智能机器人——Shakey。Shakey装备了电子摄像机、三角测距仪、碰撞传感器以及驱动电机,能简单解决感知、运动规划和控制问题。它是第一个通用移动机器人,也被称为“第一个电子人”。人工智能机器人——Shakey
20 世纪 80 年代形成了“感知-行为”模式理论,行为主义作为人工智能的一个重要学派开始确立。该理论强调通过系统与环境的互动,获取信息进行决策,从而做出相应的行为,注重智能系统的整体性能和对外界环境的适应性。1980年代和1990年代,随着机器学习的兴起,行为主义在人工智能中找到了新的表达形式——强化学习。强化学习算法,如Q学习和时间差分学习,通过奖励和惩罚机制来训练算法做出决策,直接反映了行为主义的原则。学习是一种无模型的强化学习算法,它让智能体学会如何在给定的环境中采取行动以最大化某种形式的总回报。它通过学习一个叫做Q函数的东西,来表示在特定状态下采取特定行动的预期效用。这个Q函数对于每一个状态-动作对(State-Action Pair)都维护一个Q值,这个值代表在给定状态下采取某个动作的长期回报的估计。1989年,由麻省理工学院罗德尼·布鲁克斯(Rodney Brooks)制造的六足机器人Genghis(成吉思汗),被看作新一代的“控制论动物”,它有12个伺服电机和22个传感器,可以穿越多岩石的地形,是一个基于“感知-动作”模式模拟昆虫行为的控制系统。六足机器人Genghis
20 世纪 90 年代以后,人工智能各学派之间出现了相互融合的趋势,行为主义也不例外。行为主义的思想和方法与符号主义、连接主义相结合,在智能机器人、智能控制、机器学习等领域得到了更广泛的应用和发展,例如在一些智能机器人的控制系统中,既采用了行为主义的“感知-动作”模式,又结合了符号主义的知识表示和推理方法,以及连接主义的神经网络学习能力,使机器人能够更好地适应复杂多变的环境和完成各种任务。现代的波士顿动力机器人、国内的宇树科技机器人等产品都是这些技术的产物。波士顿动力机器人
宇树科技机器人
4 总结一下
人工智能技术是人类对工具、机器的高阶追求,并在数学、生物学、心理学、计算机科学等的推动下不断发展进步,人工智能技术的出发点都是对人或生物智能的模仿,从技术原理上大致可以分为三条技术路线符号主义、行为主义和联接主义,这三种技术路线各有特点:
符号主义研究抽象思维,联接主义研究形象思维,而行为主义研究感知思维。
符号主义注重数学可解释性;联接主义偏向于仿人脑模型;行为主义偏向于应用和身体模拟。
符号主义靠人工赋予机器智能,联接主义是靠机器自行习得智能,行为主义在与环境的作用和反馈中获得智能。
符号主义的发展主导了人工智能的前两次浪潮,但是符号主义在“缺乏常识”和可扩展性方面的弊端显露无疑,目前人们也没有畅想出何种方法或系统去解决这些问题,更重要的是符号主义目前的技术方法还要求人来完成现实世界抽象描述及规律知识的总结工作,也在一定程度上限制了符号主义的发展,迫使人们由知识驱动转向数据驱动;行为主义的人工智能技术主要运用在自主运动的机器人上,极大提升了四足、人形机器人在复杂环境中的运动能力,但行为主义智能算法并不适合文字、逻辑等抽象空间的处理;联接主义在基本机制上是仿脑的,科学家们在这条技术路线上不断创新,在算力和数据增长的加持下,人工神经网络不断用规模换能力,取得了最广泛的应用突破,人们似乎看到了一种通用人工智能的实现方式,但目前的人工神经网络也存在诸多弊端,包括不可解释性、高能耗等。
可以看出,我们目前发明出的各类人工智能算法还未从各方面达到人类的水平,各类算法总有这样那样的问题需要解决。在笔者看来,人工智能的三大技术路线都是启发自人类对自己和生物的观察,符号主义、行为主义、联接主义分别从逻辑思维、感知反应和模型原理上模仿生物智能,在这个模仿的过程中科学家们提出了各种优化的方法,像搭积木一样垒出一个可用的智能体,笔者坚信,未来不会是某一种技术路线就可以实现人们所期待的所有智能机器,而是各种技术的融合互补,行为主义技术主要负责实现机器人的运动控制,联接主义实现机器人的“大脑”,符号主义则辅助联接主义在需要可解释逻辑和知识方面加以补充和施加必要的控制,如此才能造就一款更加智能、可解释、自适应的的人工智能机器。
这一期的人工智能科普就到这里,人工智能技术原理大多很简单,但是每项技术都弄懂,知其所以然也不是易事,笔者也需要加强学习,一点一点把每个算法的技术原理搞清除,才有利于未来的创新发展。