课程介绍

我认为学习AI除了实践外,其理论基础也非常重要,微软最近推出了一门12周,24课的非常系统的、面向初学者的人工智能课程,不过课程是全英文的,我用GPT4将文字翻译成中文,分享给大家。

在这个课程中,可以学习到:

  • 不同的人工智能方法,包括"传统的"符号化方法以及知识表示和推理
  • 神经网络和深度学习,它们是现代AI的核心。我们将使用两个最受欢迎的框架——TensorFlow和PyTorch,来阐述这些重要主题背后的概念。
  • 用于处理图像和文本的神经结构。我们将介绍一些近期的模型,但可能会稍微缺少一些最前沿的内容。
  • 不太常见的AI方法,如遗传算法和多代理系统。

这个课程希望通过深入浅出的方式,让大家对人工智能有更全面,更深入的理解。

课程目录

第一课:人工智能的介绍和历史

人工智能是一门令人兴奋的科学学科,研究我们如何让计算机表现出智能行为,例如做人类擅长做的事情。

最初,计算机是由查尔斯·巴贝奇 (Charles Babbage)发明的,用于按照定义明确的程序(一种算法)对数字进行运算。现代计算机,尽管比 19 世纪提出的原始模型先进得多,但仍然遵循相同的受控计算思想。因此,如果我们知道为了实现目标而需要执行的步骤的确切顺序,就可以对计算机进行编程来做某事。

照片由Vickie Soshnikova拍摄

✅ 根据一个人的照片来定义他或她的年龄是一项无法明确编程的任务,因为我们不知道在做这件事时我们是如何在脑海中想出一个数字的。

然而,有些任务我们并不知道如何解决。考虑从他/她的照片确定一个人的年龄。我们以某种方式学会了做这件事,因为我们见过许多不同年龄的人的例子,但我们无法明确解释我们是如何做的,也无法通过编程让计算机去做。这正是人工智能(简称 AI)感兴趣的任务。

✅ 想一想您可以将一些任务交给计算机上,从而受益于 AI。想想金融、医学和艺术领域——这些领域今天如何从人工智能中受益?

弱人工智能与强人工智能

解决特定类人问题的任务,例如根据照片判断一个人的年龄,可以被称为弱人工智能(Weak AI),因为我们只是创建一个针对单一任务的系统,并非一个能解决许多任务的系统,如同人类所能做的那样。当然,从许多角度(包括对意识哲学的学习者)来看,开发一个具有通用智能的计算机系统也极其有趣。这样的系统被称为强人工智能(Strong AI)或人工通用智能(Artificial General Intelligence,AGI)。

智能的定义和图灵测试

处理“智能”一词时的一个问题是,这个词没有明确的定义。人们可以争辩说智力与抽象思维或自我意识有关,但我们无法正确定义它。

照片来自Unsplash 的Amber Kipp

要了解术语智能的歧义,请尝试回答一个问题:“猫是否聪明?”。不同的人倾向于对这个问题给出不同的答案,因为没有普遍接受的测试来证明这个断言是对还是错。如果你认为有——试着让你的猫通过智商测试……

✅ 想一想你是如何定义智力的。一只可以解开迷宫并获得食物的乌鸦是否聪明?孩子聪明吗?

在谈到 AGI 时,我们需要有一些方法来判断我们是否已经创建了一个真正的智能系统。图灵提出了一种称为图灵测试的方法,它也可以作为智能的定义。该测试将给定系统与具有内在智能的事物(真人)进行比较,并且由于计算机程序可以绕过任何自动比较,因此我们使用人类询问器。因此,如果一个人无法在基于文本的对话中区分真人和计算机系统——该系统就被认为是智能的。

面向初学者的人工智能教程(1)

一个名为Eugene Goostman的聊天机器人,在2014年通过巧妙地设定个性接近通过了图灵测试,这个机器人是在圣彼得堡开发的。它一开始就宣布自己是一个13岁的乌克兰男孩,这也解释了它知识的缺乏和文本中的一些不一致。在进行5分钟的对话后,该机器人让30%的裁判相信它是人类,这是图灵相信机器在2000年前就能达到的指标。然而,我们应该理解的是,这并不表示我们已经创建了一个智能系统,或者说一个计算机系统已经愚弄了人类的询问者——系统并没有愚弄人类,而是机器人的创建者愚弄了人类!

✅ 你有没有被聊天机器人骗过,以为你在和人说话?它是如何说服你的?

人工智能的不同方法

如果我们想让计算机表现得像人一样,我们需要以某种方式在计算机内部模拟我们的思维方式。因此,我们需要尝试理解是什么让人类变得聪明。

为了能够将智能编程到机器中,我们需要了解我们自己的决策过程是如何工作的。如果你做一点自我反省,你会意识到有一些过程是在潜意识中发生的——例如。我们可以不假思索地将猫和狗区分开来——而其他一些则需要推理。

有两种可能的方法来解决这个问题:

还有一些其他可能的智能方法:

  • 突现、协同或多智能体方法基于这样一个事实,即复杂的智能行为可以通过大量简单智能体的相互作用得到。根据进化控制论,智能可以在元系统过渡过程中从更简单的反应行为中涌现。
  • 进化方法或遗传算法是一个基于进化原理的优化过程。在遗传算法中,解决方案(被看作是"个体")通过类似于自然选择的过程进行"进化",以寻找最优解。这通常涉及到随机的"变异"和"交叉"操作,以及一个基于"适应度"函数的选择过程,这个函数衡量了解决方案的质量或效用。

我们将在课程的后面考虑这些方法,但现在我们将关注两个主要方向:自上而下和自下而上。

自上而下的方法

在自上而下的方法中,我们尝试对我们的推理进行建模。因为我们在推理时可以跟随我们的想法,所以我们可以尝试将这个过程形式化并在计算机内部编程。这称为符号推理。

人们往往在头脑中有一些规则来指导他们的决策过程。例如,当医生在诊断病人时,他或她可能会意识到这个人发烧了,因此身体内部可能正在发生一些炎症。通过对特定问题应用大量规则,医生可能能够得出最终诊断。

这种方法在很大程度上依赖于知识表示和推理。从人类专家那里提取知识可能是最困难的部分,因为在许多情况下,医生并不知道他或她为什么要做出特定诊断。有些任务,例如从照片中确定一个人的年龄,根本无法归结为操纵知识。这类任务更依赖于模式识别和深度学习等技术,它们能够从大量的样本数据中学习和抽取特征,而不仅仅是依靠预先设定的知识。尽管我们可以使用知识帮助解决这类问题,但是关键的信息提取和判断往往依赖于机器学习模型的能力,而不仅仅是知识的运用。

自下而上的方法

或者,我们可以尝试模拟大脑中最简单的元素——神经元。我们可以在计算机内部构造一个所谓的人工神经网络,然后通过举例来尝试教它解决问题。这个过程类似于新生儿通过观察了解周围环境的方式。

✅ 对婴儿的学习方式做一点研究。婴儿大脑的基本组成部分是什么?

机器学习呢? 基于计算机学习来解决基于某些数据的问题的人工智能的一部分称为机器学习。我们不会在本课程中考虑经典机器学习——我们建议您参阅单独的初学者机器学习课程。

人工智能简史

人工智能作为一个领域开始于 20 世纪中叶。最初,符号推理是一种普遍的方法,它带来了许多重要的成功,例如专家系统——能够在某些有限问题领域充当专家的计算机程序。然而,很快就发现这种方法不能很好地扩展。从专家那里提取知识,将其表示在计算机中,并保持知识库的准确性被证明是一项非常复杂的任务,而且在许多情况下成本太高而不实用。这导致了1970 年代所谓的AI 寒冬。

图片由Dmitry Soshnikov提供

随着时间的推移,计算资源变得越来越便宜,可用的数据越来越多,因此神经网络方法开始在计算机视觉或语音理解等许多领域展示出与人类竞争的强大性能。在过去十年中,人工智能一词主要用作神经网络的同义词,因为我们听到的大多数 AI 成功都是基于它们。

我们可以观察这些方法是如何改变的,例如,在创建下棋计算机程序时:

  • 早期的国际象棋程序是基于搜索的——一个程序明确地尝试估计对手在给定数量的下一步下可能的走法,并根据几步走法后可以达到的最佳位置选择最佳走法。它导致了所谓的alpha-beta 剪枝搜索算法的发展。
  • 搜索策略在游戏结束时运行良好,搜索空间受到少量可能移动的限制。然而,在游戏开始时,搜索空间巨大,可以通过学习人类玩家之间现有的匹配来改进算法。随后的实验采用了所谓的基于案例的推理,程序在知识库中寻找与游戏中当前位置非常相似的案例。
  • 战胜人类玩家的现代程序是基于神经网络和强化学习的,程序通过长时间与自己对弈并从自己的错误中吸取教训来学会下棋——就像人类在学习下国际象棋时所做的那样。然而,计算机程序可以在更短的时间内玩更多的游戏,因此可以学得更快。

✅ 对 AI 玩过的其他游戏做一点研究。

同样,我们可以看到创建“会说话的程序”(可能通过图灵测试)的方法发生了怎样的变化:

  • 此类早期程序(例如Eliza)基于非常简单的语法规则并将输入句子重新表述为问题。
  • 现代助手,如 Cortana、Siri 或 Google Assistant 都是混合系统,它们使用神经网络将语音转换为文本并识别我们的意图,然后使用一些推理或显式算法来执行所需的操作。
  • 在未来,我们可能会期待一个完整的基于神经的模型来自行处理对话。最近的 GPT 和Turing-NLG神经网络家族在这方面取得了巨大的成功。

图片由 Dmitry Soshnikov 提供,照片由Marina Abrosimova提供,Unsplash

最近的人工智能研究

神经网络研究最近的巨大增长始于 2010 年左右,当时大型公共数据集开始可用。名为ImageNet的庞大图像集合包含大约 1400 万张带注释的图像,由此诞生了ImageNet 大规模视觉识别挑战赛。

图片由Dmitry Soshnikov提供

2012 年,卷积神经网络首次用于图像分类,导致分类错误率显着下降(从近 30% 下降到 16.4%)。2015 年,微软研究院的 ResNet 架构实现了人类级别的精度。

从那时起,神经网络在许多任务中表现出了非常成功的行为:


在过去的几年中,我们见证了大型语言模型(例如 BERT 和 GPT-3)的巨大成功。发生这种情况的主要原因是有大量可用的通用文本数据允许我们训练模型以捕获文本的结构和含义,在通用文本集合上对其进行预训练,然后将这些模型专门用于更具体的任务. 我们将在本课程的后面学习更多关于自然语言处理的知识。

🚀 挑战

浏览一下互联网,确定在您看来,AI 在哪些方面使用得最有效。它是在地图应用程序中,还是在某些语音转文本服务或视频游戏中?研究系统是如何构建的。

复习与自学

通读本课,回顾 AI 和 ML 的历史。从该课或本课顶部的素描笔记中提取一个元素,并对其进行更深入的研究,以了解影响其演变的文化背景。

强人工智能之路

随着GPT的发布,强人工智能的时代已经到来,它必将在5到10年内深刻影响我们的工作、学习、生活,如何利用AI提升自身能力,是每个人绕不开的问题。我们将以最通俗的语言呈现最新的AI发展动态、最实用的AI实战经验及产业趋势。