点击蓝字
关注我们
阎孟伟
南开大学马克思主义学院教授,博士生导师。南开大学当代中国问题研究院常务副院长。中国人学学会常务理事、学术委员会委员。主要研究方向为马克思主义哲学基础理论、政治哲学、历史哲学、当代社会发展理论。
文|章|来|源|
《社会科学战线》2024年第11期
摘要
ChatGPT的出现使人工智能是否能够超越人类智能的问题凸显出来。这个问题也是人工智能的“奇点问题”。 这个问题不是单纯的科学问题, 必然同时是一个哲学问题。 问题的核心在于人工智能能否获得主体性地位, 这就需要弄清人的存在的根本性特征。 马克思从人的生命活动出发, 对人的存在的主体性做出了界定, 并指出人的主体性的关键在于人的 “自我意识”。 黑格尔对人的自我意识的生成做出了系统的研究, 指出自我意识的生成就是生命运动。 人的主体性, 就在于他的一切活动都是以 “自我” 为根据的, 具有目的性、 选择性, 并在精神活动的全部范围内包含大量的非理性因素。 这些都是人工智能不能复制和模仿的。 同时人工智能的发展是以数学特别是概率和统计为基础, 因而人工智能的发展也有自身的限度。 在人工智能发展中的 “对齐问题” 上, 人工智能带来的危害从根本上说来自于人工智能的研发者、 制造者和使用者。 因此, 需要规范和约束的不是人工智能技术本身, 而是研发、 制造和使用人工智能的人。
关键词
人工智能; 奇点问题; 人类智能; 人的主体性; 自我意识
自从 2022 年 11 月 30 日, 美国人工智能研究实验室 (OpenAI) 正式发布了一款聊天机器人程序ChatGPT (Chat Generative Pre-trained Transformer) 之后, 便迅速又一次掀起了席卷全球的人工智能浪潮。 短短几个月后, 也就是在 2023 年 3 月 15 日, OpenAI 公司又正式推出 GPT-4 的最新版本, 使该程序支持多种形式的输出输入, 拥有更强的学习能力, 并具备强大的识图能力。 2024 年 2 月 15日, OpenAI 公司又震撼发布文字生成视频模型 Sora, 该模型采用与 GPT 模型相似的 Transformer 架构处理长序列数据, 通过自注意力机制捕捉数据中的依赖关系, 成功地解决了 Transformer 架构在长文本和高分辨率图像处理上的问题, 减少了算力需求, 并能够生成高分辨率图像。 ChatGPT 的横空出世, 震撼了整个世界, 已经使世界各国和各行各业都卷入人工智能发展掀起的浪潮中, 一方面是因其应用范围的广泛而造成用户量激增, 一方面是因其能力强大给金融、 教育和社交领域带来的负面作用而引起的警戒甚至抵制。 不论哪种反应, 人们对人工智能最新成就的重视, 不亚于对俄乌战争和巴以冲突的关注。 在这个浪潮中, 一个问题格外引人注目: 人工智能能否超越人类智能? 或者说, 电脑是否能够最终战胜人脑?
1
人工智能: 成就与争端
ChatGPT 的出现给哲学研究领域带来的冲击似乎更为深重。 20 世纪 60 年代末, 随着微电子技术的发展和第一代智能机器人的出现,① 有关电脑和人脑之间关系的问题就已浮出水面。 计算机强大的信息存储能力、 检索能力、 高速运算能力和判断、 推理能力, 以及智能化的模仿能力已经使人惊讶不已, 开始对计算机未来的发展提出了这样的问题: 电脑是否能够超过人脑? 当然, 在那个时候, 智能机器人的最初形态尚不足以使人对它们产生恐惧, 因而绝大多数人都不相信电脑终将会超过人脑, 但有趣的是, 对此做出论证的主要是哲学家。 但 21 世纪以来, 情况开始发生变化, 智能机器人的发展就好像是被注射了强心剂, 一路高歌猛进, 不可阻挡。 特别是 2006 年, 杰弗里·辛顿 (Hinton) 和他的学生鲁斯兰·萨拉赫丁诺夫正式提出了 “深度学习” 的概念 (Deeping Learning) 之后, 2012年, 他和他的学生 Alex Krizhevsky 设计出 AlexNet 神经网络模型, 并在 ImageNet 竞赛大获全胜, 由此引爆了神经网络的研究热情。 此后, 人工智能领域产生了一系列具有里程碑意义的成就: 基于 “深度学习” 原理的围棋人工智能程序 AlphaGo 以 4 比 1 的总比分击败了围棋世界冠军李世石; 2020 年,OpenAI 公司开发出文字生成 (text generation) 人工智能 GPT-3, 2021 年又提出两个连接文本与图像的神经网络可以基于文本直接生成图像。 直至 2022 年, ChatGPT 的出现, 对于 AI 的想象瞬间开爆, 人们惊呼 “未来已来!” 而 GPT-4 和 Sora 的出现, 更是使业界人士无法淡定。 霍金就曾担心人们会创造出一种不断自我完善的人工智能, 直到最终优于人类, 这样做的结果将是一种 “新形式的” 生命。
眼下, 霍金之忧已成为世界之忧。 OpenAI 公司的创办人之一马斯克声称 ChatGPT 的出现已经表明了人工智能取得了令人难以置信的进步, 但同时他又警告不受监管的人工智能开发可能会带来危险, 他曾表示, 人工智能比核弹头 “危险得多”。 而当 Sora 模型发布后, 马斯克直接做出了一个令人震惊的点评: “人类完了!” (gg humans) 马斯克曾在世界人工智能大会上与马云对话。 马云说: “人应该更聪明, 更智慧。” 但马斯克的观点截然不同: “我们看到 AI 研究人员犯的最大的错误就是他们假设他们很聪明, 实际上并不是如此, 他们觉得 AI 不会比人聪明, 但是很有可能的是 AI 比人聪明得多。” 他更推崇 “硅基生命” 的概念, 认为 “硅基生命” 比 “碳基生命” (人类) 更强大, 因而 “人类生活在真实世界的概率几乎等于零”。 受国外业界科技大佬们的影响, 我国不少业内人士也纷纷发表意见, 不过他们的看法, 大多并无多少值得注意的新意。
当然并不是所有人工智能方面的专家都抱有这种惊恐的心理。 早年, 控制论创始人维纳通过对计算机和人的比较分析, 认为计算机作为学习机可以有独创性, 但认为机器远不及人那么复杂, 而且行动的幅度也不及人那么宽广。 例如, 人脑能够思考尚未完全明确的含糊观念并处理这些观念, 计算机则无法做到这一点, 因为对于没有固定形式和精确定量的材料计算机完全不能接受。 当然, 在维纳的时代, 计算机还没有发展到今天这样令人瞠目结舌的程度, 他的论断未必令人十分信服。 另一位, 被称为 “现代计算机之父” 的美国计算机科学家冯·诺依曼确信人脑有一个优越性是计算机不能比拟的, 即大脑的语言不是数学语言, 大脑的巨大能力靠平行加工信息的复杂结构来达到, 而计算机的所有运算都是依次进行的。 机器模拟人的记忆与人的记忆有本质区别, 人脑有一个按意义去记忆的系统, 无需逐个回忆全部信息, 就可以找到所需信息。 维纳和诺依曼都早已过世, 但他们提出的质疑点, 似乎并没有被人工智能的新发展埋葬掉。 跳棋机发明者、 美国工程师塞缪尔在 1995 年设计的一款跳棋机战胜了他自己, 在当时引起了很大的轰动。 尽管如此, 塞缪尔依然认为维纳说这样的学习机可以有独创性的话靠不住, 计算机不能超过人的智力, 因为机器不能输出任何未经输入的东西。 机器没有自己的思想, 所谓结论只不过是输入数据和输入程序的逻辑结果。
所有上述这些观点都提示我们, 应当认真反思人工智能的发展边界。 如日本人工智能科学家渡边慧在关于 “重新考虑” 人工智能的问题时指出, 需要冷静地想一想, 也就是说电子计算机究竟能达到什么程度, 超过什么范围就不能工作, 如果不这样重新考虑, 恐怕就不成其为科学, 而成为宗教了。
2

“奇点问题”:
人工智能能否超越人类智能?
随着人工智能的快速发展, 越来越多的人惊呼人工智能将会全方位地超越人类智能, 人类的未来要么老老实实地接受人工智能的统治, 要么与人工智能展开人机合作, 开启征服世界的新模式。 当然, 也有许许多多的人否定这种可能性, 但面对人工智能辉煌成就的迭出, 也感到只是老调重弹似乎无力回应来自科技界的挑战。 争论的焦点在于: 到底人工智能的发展能不能超越人类智能? 确切地说, 人工智能与人类智能之间是否存在着一个原则上不可超越的界限, 无论人工智能今后怎样发展,也不可能全方位地超越人类智能。 这个问题也被称为 “奇点” (singularity) 问题。 所谓 “奇点”, 源自于数学的 y = 1 / x 函数曲线上 x = 0 的这一点上, 这个点被称为奇异点, 因为, 数学上对于这个点没有任何定义。 这个概念被大爆炸宇宙论用来表示 “大爆炸” 的起始点, 也被用于推测 “黑洞” 的存在。 现在这个概念又被智能科学家们用来描述人工智能最终突破人类智能的时间点。 在这方面, 科学家们的想象力真是一点也不亚于文学艺术家。 计算机专家约翰·冯·诺伊曼第一次提出 “奇点” 概念, 用它来表述人类历史结构的断裂。 圣迭戈州立大学的数学家和计算机科学家弗诺·文奇, 在1983 年 Omni 杂志的一篇文章和 1986 年的科幻小说 Marooned in Realtime 中都涉及了即将到来的 “技术奇点”①, 并认为奇点出现后的世界发展将会超出人类传统经典思维的理解范畴。 当然, 目前来看,最具代表性的作品, 就是库兹韦尔于 2006 年出版的 《奇点临近》 一书, 该书的副标题就是 “2045年, 当计算机智能超越人类”。 在这本书中, 库兹韦尔声称: “尽管人类思想有局限, 但人类依然有足够的能力去合理地想象奇点来临以后的生命形态。”② 据此, 他推测了 21 世纪前半叶计算机智能的发展状态和分阶段的成果, 颇具乐观地预测: 当非生物智能达到物质与能量的 “饱和” 程度, 即把计算运用到最佳程度的物质和能量的模式的时候, 计算机智能将达到极限, 而当接近这个极限时, 人类文明的智能将扩散到宇宙的其他部分。 这种膨胀的速度会很快达到极值, 甚至可以达到信息的传递速度。 “最终, 整个宇宙将充盈着我们的智慧。 这便是宇宙的命运。 人类将决定自己的命运, 而不是像机械力学支配天体力学那样, 由目前的 ‘非智能’ 来决定。”③ 并且, 如果智能扩散速度超过了光速, 未来人类文明的巨大智能将会被进一步开拓。 “那么, 这就是奇点。 有人会说, 至少在目前的认识水平上它很难理解。 正是出于这个原因, 我们不能以看待过去的视野, 去理解必将超越它的事物。这就是我们将该转变称为 ‘奇点’ 的一个原因。”④
不管库兹韦尔有多大底气来支撑自己对突破奇点的乐观估计, 但奇点问题给人们带来的更多的是忧虑和惊恐。 因为, 假定 “奇点” 是存在的, 这就意味着人类现有的理论都不可能用来描述突破奇点之后的状态, 就像我们现在所有的物理语言都不能描述宇宙大爆炸的奇点一样。 那么, 一旦人工智能突破了 “奇点”, 全方位地超越了人类智能, 我们到底还有多少理由或信心确信人类还能把握自己的命运?
人工智能能否超越人类智能, 这个问题, 首先不是讲人工智能在其局部功能上能否超越人类智能。 因为, 人工智能的局部功能超越人类智能早已是不争的事实, 早年如信息的存储、 检索、 判断、推理, 现在随着深度学习模型的出现, 在运用自然语言自主形成对话、 翻译、 制图、 创造视频等方面早已远远超越了人类, 人类也正是由于看中这些功能性超越才去下功夫发展人工智能。
按照人工智能研究领域的专家们设想, 人工智能的发展大致要经历三个阶段: 弱 (专用) 人工智能(ANI, Artificial Narrow Intelligence ) ———强 ( 通 用) 人 工 智 能 ( AGI, Artificial Generate Intelli⁃gence) ———超级人工智能 (ASI, Artificial Super Intelligence)。 弱人工智能又称专用人工智能, 不具备类似人类的完整认知能力, 只能用于专用领域, 虽然在特定领域可以超出人类能力, 但总体上没有超出机器、 工具的范畴, 它的发展更多地是令人感到欢欣鼓舞。 强人工智能又称通用人工智能, 是具备与人类同等智慧, 或超越人类的人工智能, 能表现正常人类所具有的所有智能行为, 对于这种人工智能, 人们可能会感到喜忧参半, 因为对它们还能否听从人的智慧和控制已没有十足的把握。 对于超级人工智能, 眼下还停留在人们的想象中, 但是越想越害怕, 不知道这个东西一旦出现会不会真地导致人类的终结。
目前, 我们还没有完全超出弱人工智能发展阶段, 但人工智能最新技术的发展, 的确使强人工智能的产生指日可待。 然而, 强人工智能作为通用人工智能将有可能执行所有人类能够完成的通用任务, 也就是说, 可以在所有领域与人竞争。 这种人工智能的进一步发展就有可能像 I. J. 古德所设想的那样, 在没有人工干预的情况下, 不断设计和制造下一代智能机器。 如果出现这种情况, 人工智能将会凭借日益强大的功能性智能超越呈现出迭代发展, 迅速达到超人工智能发展阶段。 到那时, 人工智能将全方位超越人类智能, 突破库兹韦尔所说的 “奇点”, 但未必是协助人类统治整个宇宙, 更有可能是把人类智能送进博物馆, 使之成为文明的化石。
然而, 真正的问题在于, 是否真的存在着这么一个 “奇点”? 换句话说, 人工智能的发展是否能够最终突破这个 “奇点” 实现对人类智能的全方位超越? 有一点是很清楚的, “奇点” 问题无疑涉及对人、 人的存在的本质的基本理解。 这就注定了这个问题绝对不是单纯的科学问题, 它必然同时是一个哲学问题, 而且是哲学的存在论问题或形而上学问题, 需要哲学家站出来说话。
OpenAI 的首席科学家、 “深度学习模型” 的创立者之一、 被称为 “人工智能教父” 的辛顿教授(Geoffrey Hinton) 有一句话说得非常好: “如果不了解大脑, 我们永远无法理解人类”, “在 70 年代,有一种时髦的观点认为, 你可以在不关心大脑的情况下做到这一点, 我认为不可能, 必须了解大脑是如何运作的”①。 辛顿教授就是运用对大脑的理解改变了以往主流 AI 基于推理和逻辑制定理论的传统的符号规则模式, 而是基于神经元之间的连接变化来学习制定理论的神经网络模式, 并取得了成功。
关键问题在于, 怎样就算真正了解了人的大脑呢? 了解人的大脑本质上就是了解人类本身, 了解人类的存在或生存方式。 列宁说, 人的大脑是一个高度严密复杂的物质体系。 复杂到什么程度? 至今无人能回答这个问题。 辛顿教授等开发的深度学习训练的模型采用一个拥有大量神经元的大型神经网络, 计算节点和它们之间的连接, 通过改变连接的强度, 从多元数据中学习, 通过预训练生成 Chat⁃GPT 或 Sora 这样的智能机器人。 这种深度学习训练的神经网络式的模式较之以往的基于符号和规则的推理和逻辑的模式更接近人的大脑的神经元运作机制。 而且, 随着计算机技术的发展, 运算速度和运算能力的快速增强, ChatGPT 这样的人工智能能够在大数据的网络模型中成功地运用 100 万亿个连接, 可能已经远远超出了人类智能在这方面的能力。 并且可以相信, 随着这个技术模式的不断发展、更新, 甚至产生革命性变化, 人工智能在生成文本、 音频、 视频等各个方面的能力完全可达到人类智能望尘莫及的程度。 如果将这种智能化广泛应用到科技制造业、 政治统治、 社会治理、 法律、 军事、医疗、 教育等各行各业, 那将导致人类生存方式发生根本性的变化。
但即便如此, 人类对自己大脑的了解还不到大脑结构和机制的 10%, 尽管在解剖学的意义上,我们对大脑内部的器官、 细胞、 工作区域等有了很多的知识, 但对于有着 1000 亿个神经元的连接方式和工作机制却知之甚少。 因此, 大脑对于我们人类来说基本上还是一个 “黑箱”。 如果说, 人类智能是以人类大脑为物质基础, 那么人工智能根本不可能复制或再造人类的大脑, 而只能对大脑这个复杂的黑箱结构所产生的功能进行模仿。 从这个意义上说, 人工智能本质上就是对人类智能的外部功能的模仿。 即便是辛顿教授等人开发的深度学习模型采用了神经网络的学习训练模式, 那也不过是对人类大脑神经网络的模仿, 因为计算机中的所谓神经元式的工作机制至多属于电子仿生, 根本不同于大脑的神经元工作机制。
既然人工智能是对人类智能外部功能的模仿, 那么通过这种模仿能否全方位地超越人类智能呢?孙伟平教授在 《华东师范大学学报》 2024 年第 1 期上发表了 《智能机器人的主体地位、 权利、 责任和义务问题》 (以下简称 《智能机器人》 ) 一文。 该文提出了一个极为重要的看法: “作为通用人工智能的智能机器人具有类似人类的智能, 甚至在一定意义上具有 ‘人’ 的本质特征, 这无疑会颠覆传统的认知和观念, 带来一系列严重的哲学和社会后果。 其中, 最直接的是可能冲击甚至动摇人类的唯一主体地位。”① 这就是哲学上有关 “主体” “主体性” 的争论, 也恰恰是这个问题构成人工智能“奇点” 问题的要害, 也就是说, 如果人工智能像人那样真正获得了主体性的地位, 就意味着它的确有能力超越人类智能。
孙伟平教授的文章进而指出: “主体必须具有健全的主体意识, 包括自我意识和对象意识。”② 这的确是 “奇点” 问题的关键。 2022 年 7 月, 谷歌软件工程师 Blake Lemoine 声称, 谷歌旗下的 AI 聊天机器人 La Mad 已有 “自我意识”。 消息一出, 谷歌上下一片慌乱, 但经过调查很快发现, La Mad的所谓自我意识不过是用一个复杂的算法虚构出来的, Blake Lemoine 也因散布危言耸听的谎言而被解雇。 不管怎么说, 这个闹剧暴露出一个问题, 说聊天机器人 La Mad 获得了自我意识为什么没有使科学家们感到庆幸, 而是感到恐慌? 我想, 问题就在于, 如果 AI 能够获得自我意识, 那将意味着它的发展最终会成为具有自主性的智能主体, 从而突破 “奇点”, 并迅速朝着取代人类的方向发展。
3
人的存在主体性:
自我意识与自由意识
人工智能能否超越人类智能首先在于, 人工智能能否通过对人类智能的模仿而获得相当于人类存在的主体性地位。 这就需要弄清人是怎样获得自身的主体性地位的, 即人的存在的根本性特征。 对于这个问题, 我们不妨先看看马克思和黑格尔是如何确认人的主体性的。
1.马克思对人的存在的主体性论证
马克思在 《1844 年经济学哲学手稿》 中把劳动称为人的生命活动, 指出这种生命活动的特征就是“自由的有意识的活动”③。 从这个基本命题出发, 马克思从五个方面对人的存在做出了基本规定: 人是自然的存在物、 人是自觉的存在物、 人是自由的存在物、 人是社会的存在物、 人是类的存在物。
人是自然的存在物, 就是说, 从人所具有的生物属性或生理机制上看, 人是在漫长的生物进化过程中产生出来的一个特殊的物种。 在这个意义上, 人的存在与其他的自然物质的存在一样, 有着自然性、 自在性的一面, 他不能脱离纷纭众生的自然界, 天马行空似地独往独来, 而是必须与自然的生存环境相互作用, 以保全自身的性命。
人是自觉的存在物, 就是说, 人的产生并非简单地在生物进化的树形图上增加了一个新的分支,而是产生了一种源于 “自在的存在” 又扬弃了 “自在性” 的新的存在物。 在经历了从动物的感觉和心理向人的语言意识的转变和相应地从动物的本能活动向人的自觉活动的转变之后, 人因其语言意识的产生, 便扬弃了自身存在的自在性, 成为 “自为的” 存在物。 人的存在的 “自为性” 首先在于,人不仅 “存在着”, 而且他意识到自己的存在, “有意识的生命活动把人同动物的生命活动直接区别开来”①。 尽管人像动物一样有着由自身生物属性所决定的种种自然的欲求, 但他能意识到自我的这些欲求, 即 “他的意识代替了他的本能, 或者说他的本能是被意识到了的本能”②。 它能够在观念中把这些欲求转化为自觉的目的, 使满足欲求的活动成为追求目的的自觉活动。
人是自由的存在物, 就是说, 由于人的存在具有语言意识的优势, 因而人不像动物那样消极地、被动地适应自然, 而是能够不断地打破活动对象的固有形态给人的活动带来的障碍, 而赋予其新的符合人的需要、 目的和理想的存在形态。 克服这种障碍本身, 就是自由的实现, 而不管这种障碍是来自外部的自然界, 还是来自人类社会自身。 人类自由是最伟大的力量, 任何与之相抵抗的势力, 不论其表面上看来有多么不可一世, 面对自由终究会暴露出其虚无的本质。
人是社会的存在物, 就是说, 人不是孤立地存在于世, 而是存在于与他人的社会交往活动中, 并且是在他人存在的前提下才有自己的存在, 人的存在的自然性、 自觉性或自为性、 自由性, 都是因其社会性而生成的。 人的存在的自然性之所以不同于自然界中任何其他的自然物, 只是因为 “只有在社会中, 人的自然存在对他来说, 才是他的人的存在”③, 而人的存在的社会性更在于人的本质在其现实性上是一切社会关系的总和。 因此, “社会本质不是一种同单个人相对立的抽象的一般力量, 而是每一个单个人的本质, 是他自己的活动, 他自己的生活, 他自己的享受, 他自己的财富”④。
人是 “类” 的存在物。 这是对人的存在论的总体性界定。 动物的生命活动是无意识的, 它无法意识到自己的类的存在, 无法从类的意义上理解自己的存在, 因而不是真正的类的存在物。 而人能够把自己的生命活动作为自己的意识和意志的对象, 从而能够把自己的生命活动作为类的本质加以理解, 也就是说, “人是类存在物, 不仅因为人在实践上和理论上都把类———他自身的类以及其他物的类———当作自己的对象; 而且因为———这是同一种事物的另一种说法———人把自身当作现有的、 有生命的类来对待, 因为人把自身当作普遍的因而也是自由的存在物来对待”⑤。 马克思并不否认人的自由意志, 但他反对那种把自由意志同人的生命活动剥离开来, 使其变成神秘的精神存在物的唯心主义观点, 而是把人的自由回归到人的生命活动中, 强调正是由于有意识的生命活动是人的 “类” 的生活, 自由才是人的普遍的本质。
国内学界不少学者对马克思早年关于人的 “类本质” 的观点抱有一种漫不经心的态度, 甚至认为这是马克思受费尔巴哈影响而产生的一个不成熟的观点。 殊不知, 正是这个 “类本质” 的观点为我们提供了解答人工智能 “奇点问题” 的钥匙。 如果说, 人的自然性、 自觉性或自为性、 自由性、社会性构成了人的主体性的四个维度, 那么 “类本质” 的观点则蕴含着主体性地位的 “奥秘”, 即“自我意识” 的生成: “有意识的生命活动把人同动物的生命活动直接区别开来。 正是由于这一点,人才是类的存在物。 或者说, 正因为人是类的存在物, 它才是有意识的存在物, 就是说, 它自己的生活对他来说是对象。 仅仅由于这一点, 他的活动才是自由的活动。”①
2.黑格尔: 自我意识的生成是 “生命运动”
人工智能的发展能否获得主体性地位这个问题, 现在转变成人工智能是否能够真正获得自我意识的问题。 这就需要对人的自我意识的生成做出准确理解。 这个理解肯定包含了大量科学问题, 但绝不是单凭科学就能解决的, 它是斯芬克斯之谜的当代翻版, 是需要严谨的哲学探究的。 但正是由于这个问题没有得到足够的关注, 才使得许多来自哲学的解答不能令人信服, 才使得那些基本上不懂哲学的科学家们被自己的科学结论搞得不知所措。
在哲学史上, 几乎所有的哲学家都承认自我意识是人的存在的本质性特征, 都将其作为讨论任何哲学问题的前提。 但对这个自我意识的生成过程做出细致的研究和分析的哲学家并不太多, 可能从康德开始的德国哲学对这个问题才有了更为深入的理论探究。 其中, 黑格尔在耶拿时期撰写的 《精神现象学》 堪称是对人的自我意识的生成过程做出的最为系统、 最为深入的分析, 所得出的结论至今依然值得重视。 文章在这里就结合黑格尔关于自我意识的本质和生成过程的理解来尝试性地回答人工智能发展的 “奇点” 问题。
“自我意识” 无疑是人的意识活动或精神活动的最具本质性的内容, 用黑格尔的话说: 自我意识是 “真理自家的王国”②。 从精神现象的发生过程来看, 人的意识活动的最初内容, 无非是我们通过感觉和知觉获得的关于直接的、 现存的、 具有感性确定性的东西的知识, 这种知识, 在黑格尔看来,既是无限丰富的, 同时又是最抽象、 最贫乏的。 说它丰富, 是因为它面对的是一个空间上、 时间上无限广大的世界; 说它抽象贫乏, 是因为除了知道这些对象的 “存在” 以外, 再无任何其他的具体的规定性。 只是到了知觉阶段, 多方面感知才统一为一个简单的事物。 对这个简单事物的考察, 可以使我们发现蕴藏于其中的一个矛盾: 构成这个事物的各种简单的特质因我们感官的不同而彼此不同, 使这些特质统一起来, 并使其具有自我等同性, 即成为一个具有感性确定性的实物的乃是我们的反思。由此可以得出结论, 在我们的意识中, 使简单实物能够成其为简单实物的正是我们的反思, 这就不能不使我们的意识又回到我们自己本身。
当意识运动从对象世界返回于自身, 便意味着自我意识开始生成, 即 “自我意识是从感性的和知觉的世界的存在反思而来的, 并且, 本质上是从他物的回归”③。 相对于关于对象的知识, 自我意识就是一种新的知识形态, 这里所谓从他物的回归就是说, “如果我们把知识的这种新形态, 即对于自己本身的知识, 与前面的那种知识, 即对于一个他物的知识联系起来考察, 那么诚然可以说对于他物的知识是消失了, 不过这种知识的各个环节同时却仍然保存着, 而损失在于它们只是潜在地现存在这里。”④ 他物的知识的消失或隐匿是自我意识运动的一个特征, 即 “自我是自我本身与一个对方相对立, 并且统摄这对方, 这对方在自我看来同样只是它自身”⑤, 也就是说, 他物成为我的东西, 而自我则是他物的实体性本质。
从他物返回自身, 在这个意义上自我意识就是一种意识的 “运动”, 在这个运动中, 自我意识本质上就是对象意识, “意识, 作为自我意识, 在这里就拥有双重的对象: 一个是直接的感觉和知觉的对象, 这对象从自我意识看来, 带有否定的特性的标志, 另一个就是意识自身, 它之所以是一个真实的本质, 首先就只在于有第一个对象和它相对立。 自我意识在这里被表明为一种运动, 在这个运动中它和它的对象的对立被扬弃了, 而它和它自身的等同性或统一性建立起来了”⑥。 自我意识的这两个对象, 前者即直接的感觉和知觉的对象对于自我意识来说是作为非自我意识而具有否定的特性; 另一个对象就是意识自身, 由于有第一个对象相对立, 表现出意识和意识对象的统一, 而真理性的东西,就在于意识和意识对象的统一性。
因此, 意识的最高本质就是自我意识, 整个感性世界都是它的对象。 在这个意义上, 没有自我意识就无所谓对象意识, 反之, 没有对象意识也无所谓自我意识。 在自我意识面前, 感性世界依然持存着, 但不过是一种现象或一种异于自我意识而本身没有存在的东西, 换句话说, 自我意识只有通过扬弃它的对方, 扬弃感性世界中独立存在的事物, 才能确信它自己的存在。 在这个意义上, 自我意识扬弃对方而返回自身的运动就是 “生命”, 而生命的最基本表现就是 “欲望”。 所谓欲望就是自我意识不断地扬弃对方或消灭那独立存在的对象而给予自身以确信的那种努力。 并且这确信对于它已经以客观的方式实现了。 因此, “自我意识就是欲望”①, 或者说, “自我意识就是欲望一般”②。 自我意识作为欲望在满足过程中, 经验到它的对象的独立性, 即对象有其自身存在的性质和规律, 欲望的满足是以对象的存在为条件的, 自我意识对自身的确信是通过扬弃对方才达到的。 自我意识只有通过扬弃对象才能获得绝对的自为存在。 因而欲望的满足就会产生新的欲望, 扬弃对象的同时又会产生新的对象, 由此生生不息。 欲望的满足 “必须建筑在对象的扬弃上, 因为这就是真理”③。
说到这里, 已经可以看出, 自我意识的生成过程就是一个生命的生成过程, 这个过程首先在于形成一个纯粹无差别的、 没有任何规定性的自我, 也就是我们通常所说的 “我就是我” 这样一个看似同语反复的话的意义, 这是自我意识的最初的直接的对象; 进而自我意识不是空洞无物的抽象规定,它只有扬弃感性世界中那些独立自存的对象而存在, 这就是欲望。 欲望的满足就是自我意识从对象返回自身, 并确信自己成为客观真理, 因而自我意识 “自己本身就是类, 就是它自己独立存在的独特性中之普遍的流动性或连续性; 它是一个有生命的自我意识”④。
同时, 自我意识也不是一个孤立存在的自我, 他的存在具有社会性, “这里的问题是一个自我意识对一个自我意识。 这样一来, 它才是真实的自我意识。 因为在这里自我意识才第一次成为它自己和它的对方的统一……说到这里, 精神这一概念已经出现在我们前面了。 意识所须进一步掌握的, 关于精神究竟是什么的经验, 精神是这样的绝对的实体, 它在它的对立面之充分的自由和独立中, 亦即在互相差异、 各个独立存在的自我意识中, 作为它们的统一而存在: 我就是我们, 而我们就是我。 意识在自我意识里, 亦即在精神的概念里, 才第一次找到它的转折点, 到了这个阶段, 它才从感性的此岸世界之五色缤纷的假象里并且从超感官的彼岸世界之空洞的黑夜里走出来, 进入现在世界的精神的光天化日”⑤。
3.自我意识本质上就是自由意志
自我意识本质上就是自由意志。 这是黑格尔在 《精神现象学》 和 《法哲学原理》 中论及精神现象从主观精神过渡到客观精神这个逻辑过程时谈到的问题。 在黑格尔看来, 客观精神就是 “法的精神”, 而法的精神的本质就是 “自由”。 黑格尔把法的精神设定为客观自在的自由意志, 这使他的法哲学理论受到不少质疑甚至诟病。 但这并不妨碍我们从自由意志的意义上理解自我意识。 而且只有把自我意识理解为自由意志, 才能真正理解自我意识的主体性本质。
自我意识的生成过程作为一个生命的生成过程, 首先在于形成一个纯粹无差别的、 没有任何规定性的自我, 或者说, 形成 “我就是我” 这样一个抽象的自我概念。 这同时也是自由意志形成的第一个环节, 即 “纯无规定性或自我在自身中纯反思的要素。 在这种反思中, 所有出于本性、 需要、 欲望和冲动而直接存在的限制, 或者不论通过什么方式而成为现成的和被规定的内容都消除了。 这就是绝对抽象或普遍性的那种无界限的无限性, 对它自身的纯思维”①。 这个绝对抽象的 “自我”, 作为对自身的纯思维, 是自由意志始终包含着的一个本质的规定, 即 “我能摆脱一切行动, 放弃一切目的, 从一切东西中抽象出来”②, 这一理论最早通过理性主义哲学家笛卡尔提出的 “我思故我在” 这个命题表达出来, 即我可以在我的思维中排除一切稍可怀疑的事物, 但进行怀疑的或思考的 “我”是绝对存在的, 而且它表明 “我们分明还具有一个自由的意志, 以任意来同意或不同意”③。 黑格尔对笛卡尔的这个思想的评价甚高。 他认为, 笛卡尔为哲学确立了思维从自身出发的原则, 即内在性原则, “这个原则是从笛卡尔开始的。 那独立自由的思维应当发挥作用, 应当得到承认”④。
这个内在性原则就是理性的主体性原则, 是每一个有着健全理性的人都能在自身中确立起来并持守下去的根本性原则。 这个原则意味着, 人作为理性的主体真正所具有的独立性、 自由性和自觉性。
人的这种主体性首先意味着人的一切活动都是以 “自我” 为根据自主活动, 也就是说, 人的存在于本体论意义上不像自然物那样只是一个听命于他物或为他物的存在, 而是作为一个自主的存在物, 其一切活动出于 “自我” 的决定, “在我、 自我之内, 有一个绝对决定者, 它不是外来的, 只是在自身内作决定的”⑤。 即便在某个特定的时刻, 他不得不屈从于外在力量的胁迫, 但这个屈从性的活动最终也是出于自己的意愿。 人就是这样一个有着明确的自我意识的主体同外部自然进行相互作用。
4.人的主体性特征
人的这种主体性的另一个重要特征, 就是与人的自主决定密切相关的, 或者说主体决定性的根本表现就是活动的目的性。 如前所述, “自我” 是一个把自己从一切特殊规定性、 特殊内容中抽象出来的理性存在物, 但它不能总是停留在这种没有任何特殊规定的抽象中, 而必须将自己特殊化, 自我的自主决定就是一个特殊化过程。 这个过程恰恰就是使欲望得到满足的生命运动过程。 如前所述, 所谓欲望就是指自我意识必须通过扬弃他物来确认自身的存在, 不管这个他物是来自自在的自然世界, 还是来自复杂的社会世界。 意志的特殊化就表现为 “自我” 意识通过扬弃外部对象而实现特殊化。 由于意志对外部对象的希求, 就必然面对着一个外部世界, 从而表现为意志的主观形式和外部世界客观形式的对立。 我的目的存在于我的自我意识中, 构成我意志的内容, 意志从外部对象中返回自身的单一性, 就表现为通过活动和某种手段把主观目的转化为客观性的过程, 或者说, 就是通过我的活动把自己的目的对象化为客观存在的东西。 最初, 目的作为意志的内容, 通常只是指向特殊的对象如各种欲望的满足, 而当人们一旦意识到自己的自由本质时, 就会把追求自由本身作为自己的永恒的、 无限的目的。
人的主体性还特别体现在与自主决定和目的性密切相关的选择性上。 自我的特殊化作为有目的的自由意志活动, 使自我面对一个无限的感性世界, 不仅欲望的对象是无限多样的, 而且满足欲望的手段也是无限多样的, 因此, 自我必须在这双重的无限多样中进行选择, 没有这个选择, 自我就不能真正实现特殊化, 从而也就意味着主体生命运动的终止。 既然必须进行选择, 也就必须发展出选择的标准或尺度。 这个选择, 如果是考虑对象的客观性或手段的客观性, 就是基于科学的选择; 如果考虑的是人与人、 人与社会的关系, 就是基于道德的选择。 不管这种选择具有科学性质还是具有道德性质;不管是低俗的满足自然欲望的选择, 还是高尚的追求社会理想和人类文明的选择, 都必然要经历理性的主体反思过程。 只有这样, 主体才能通过自己的行动引起的外部世界的变化而扬弃他物返回自身,达到自我实现。
与人的主体性活动, 或者更为确切地说, 与人的主体性生命运动密切相关的就是自我意识运动中的大量存在的非理性特征。 尽管理性被认为构成了人类主体或人类智能的本质性特征, 但人类智能作为一种生命运动必然要与各种各样的非理性因素, 如情感、 情绪、 情欲、 直觉、 冲动等, 交织在一起。 首先是来自人们趋利避害的生物本能或自然属性的自然欲望及其所引发的自然的情感和冲动, 也就是黑格尔所说的那种最初的、 直接的或自然的意志, 如食欲、 性欲等, 规定它自身的概念在意志内部所设定的那差别的种种规定, 在直接意志中表现为直接现存的内容。 这些看上去是被自然所规定了的欲望或冲动, 体现了人的存在的自然必然性, 但如马克思所说人的本能是被意识到了的本能, 因而它们同样会通过目的设定融入人的意志活动中。 进而, 随着人和社会的发展, 各种新的、 社会性的、文化性的欲望引起冲动逐渐成为人的生命活动的主要倾向, 由此产生的不同层次的欲望或冲动, 如爱的冲动、 对权力的冲动、 对财富的冲动, 还有更高层次的对道德人格的冲动、 对真理的冲动、 对艺术的冲动, 以及最后对人格的自我实现的冲动, 等等。 在人的生命运动中, 所有这些欲望和冲动作为意志的目的和内容自在地具有意志的合理性, 并且也并非都是消极的破坏性力量, 而很有可能是推动人的进取心和人类事业的积极力量。 就连黑格尔这样十足的理性主义者也承认, “需要、 热情和兴趣,便是一切行动的唯一源泉———在这种活动的场面上主要有力的因素”①, 甚至宣称, “我们简直可以断然声称, 假如没有热情, 世界上一切伟大的事业都不会成功”②。
4
人工智能无法复制人类智能的主体性
如果说人类智能的主体性本质上就是人的自我意识, 而自我意识的生成是一个以人的欲望为核心内容的生命运动过程, 那么这个主体性是人工智能无法复制的, 不是目前的人工智能无法获得, 而是人工智能原则上就无法获得, 也就是说, 人工智能不可能突破发展的奇点而全方位地超越人类。 如果用当下流行的术语——— “碳基生命” 和 “硅基生命” ———来说, 这也正是 “碳基生命” 与 “硅基生命” 的根本区别, 因此可以明确地说, 不是 “硅基生命” 最终战胜 “碳基生命”, 而是 “硅基生命”永远不可能超越 “碳基生命”。 人工智能本质上就是对人类智能的模仿, 而且是对人类智能外部功能的模仿, 而不是对人类智能的复制或再造。 即便 OpenAI 公司开发出通过模仿人脑神经元之间的连接变化来学习制定理论的深度学习神经网络模型, 我们也不能说人工智能将全方位超越人类智能。 因为这个模型依然是对人类大脑神经网络的模仿, 它的工作机制完全不同于大脑的神经元工作机制。
可以肯定地说, 人工智能无论怎样发展都不会改变其 “模仿” 的本质。 它不会拥有人类智能的主体性, 即便它可以像人一样说出 “我” 或由我组成的句子, 但它的这个 “我” 不过是没有任何生命意识的符号或符号的叠加, 因为它完全没有与人的肉体生命自然生长密切关联的种种欲望, 没有任何冲动、 追求、 情感, 不能像人那样在自我意识的运动中通过扬弃对象返回自身。 一句话, 它没有人类主体必然具有的 “自我意识”, 它所能做的一切, 无论多么复杂, 归根结底不过是基于算法和概率的计算。
既然没有主体性, 它就不可能像人类智能那样以 “自我” 为根据进行活动。 它的一切看上去具有 “自主性” 的活动, 归根到底都是被高度复杂的算法所支配, 并依赖于规模庞大的数据资源, 因而归根到底依然是执行人类智能发出的指令, 依然没有超出人类所提供的知识储备。 它的活动也不会真正具有目的性, 更不会有那种从活动的结果返回自身的反思性, 它的活动的一切目的都来自人类智能。 至于那些崇高的甚至愿意为其做出牺牲的自由价值, 对于人工智能来说, 毫无意义。 它们更不会把追求自由作为自身活动的根本目的。 它没有趋利避害的生命意志, 没有欲望, 当然也就不能像人类智能那样对自己的活动进行价值选择, 更谈不上那些高尚的道德选择和理想价值。 它们没有利益诉求, 因而也就没有任何权利要求; 他们没有与肉身密切相关的生命意识, 因而它们也就没有感受道德与法律惩罚的肉体痛苦和精神痛苦。 它没有生命意志、 没有欲望, 因而更无可能自发地产生冲动、 情欲、 情感、 情绪、 热情、 想象、 直觉等人类智能活动必不可少的并发挥巨大作用的种种非理性因素。这些非理性因素的根本特征就是拒绝计算, 因而无法进入人工智能的运算程序。
总而言之, 人工智能的本质就是 “模仿”。 尽管人工智能在很多方面的确有其强大的优势, 在制造业、 服务业, 在医疗、 卫生、 教学、 法律、 军事、 娱乐等诸多领域 “夺走” 了人类的很多岗位,并且以后在发展中更会大规模地替代人类智能, 但人工智能终究不可能成为自主的主体, 不可能具备有生命的人格特征。 我们没有必要杞人忧天似的惊恐人工智能的发展成就。
5
人工智能发展的自身限度
人工智能的发展之所以在原则上不可能获得人的存在那种主体性地位, 不能获得人类智能所具有的 “自我意识”, 是与人工智能自身发展的限度密切相关的。 对于这个问题, 人们早已从不同角度做出探讨和论证。 参与这个讨论的, 有哲学家, 但大都是计算机科学领域顶尖级别的科学家。
前文提到的冯·诺意曼和维纳对计算机智能的质疑, 虽然现在看来似乎不那么令人信服。 但在他们的思考中, 蕴含着一个极为重要的问题, 即计算机技术有没有自己不可突破的边界? 换句话说, 计算机科学不仅应当知道自己能干什么, 更应知道自己不能干什么。 日本人工智能科学家渡边慧强调应对人工智能问题 “重新考虑”, 否则就会使人工智能成为宗教。 眼下计算机科学界似乎比较缺乏这种冷静的态度, 而是陷入迷茫与狂欢的热潮中, 似乎人工智能的发展已经或者能够进入无所不能的神话境界。 这就特别需要对人工智能发展的边界问题做出思考。
众所周知, 人工智能的发展是以数学特别是概率和统计为基础, 但恰恰是这个数学基础为人工智能的发展提供了不可逾越的界限。 其中一个就是 20 世纪最伟大的数学家和计算机科学家艾伦·图灵 (Al⁃an Turing) 提出的著名的 “图灵停机问题” (Halting Problem)。 这是一个公认的、 经典的不可计算问题, 它涉及判断计算机的任意一个程序是否会在有限的时间内结束运行的问题。 这个问题的核心在于,如果存在一个程序能够在有限时间内判断其本身是否会停机, 那么这个程序在停机之前无法判断自己是否会停机, 从而形成了一个悖论。 图灵在 1936 年证明, 一个可以解决停机问题的通用算法是不存在的,这表明停机问题在图灵机上是不可判定问题。 停机问题的本质是一阶逻辑的不自洽性和不完备性, 它不仅是逻辑数学中可计算性理论的一个问题, 也是第三次数学危机的解决方案之一。 对此, 图灵在他的著作 《论计算机机器与智能》 中提出了 “可计算问题” 的概念。 简单来说, 就是只有能够用有限的规则和步骤来解决的问题, 计算机才能够处理。 这也被称为 “图灵可计算问题” 的边界。 当然, 图灵可计算问题的范围非常广泛, 几乎覆盖了所有日常生活中可能遇到的问题。 这些问题包括数学运算、 逻辑推理、 语言翻译、 图像处理等。 可以说, 几乎所有能够用数学语言来描述的问题, 都可以被计算机处理。但是, 不能用数学语言来描述的问题, 计算机无法处理。 对于这样的问题, 无论使用什么算法或方法,都不可能得到正确的答案。 这应当是每一个搞计算机的人都很清楚的事。①
第二个典型的问题是德国 20 世纪最著名的数学家希尔伯特在 1930 年提出的 23 个重要数学问题中的第 10 个问题: 不存在一个通用的方法来解决所有的代数方程。 这个问题也是人工智能领域的一个关键问题, 它主要涉及代数学中的一个重要概念: 代数曲面。 该问题要求确定任何代数曲面是否可以由有限数量的整数系数方程组合成。 数学家们为此做出了不懈的努力, 直到 1970 年, 苏联数学家沙芬和美国数学家特莱菲一起, 独立证明了希尔伯特第 10 个问题的否定性, 即不存在一个通用的方法来解决所有的代数方程。①
“停机问题” 和 “希尔伯特问题” 很清楚地表明, 计算机不能解决所有数学问题。 如今, GPT-3的算力和训练数据已拥有 1750 亿个参数, 并使用了数十亿个单词和短语作为训练数据。 GPT-4 则需要更多的计算能力和更大的训练数据来实现更加强大的自然语言处理能力。 据报道, OpenAI 已经在准备 GPT-4 的训练, 并在不断地探索新的算法和技术来提高训练效率和模型的性能。② 然而, GPT-4 并不能突破计算机在数学上的边界。 虽然 GPT-4 可以自动学习语言规律, 但它并不能自己发明新的算法, 也无法理解数学的本质, 甚至可以说它理解不了任何事物的本质, 不能进行抽象思维。
事实上, 与人类智能相比照, 人工智能不能解决的问题更是多得难以估量。 1889 年, 法国哲学家伯格森在其 《时间与自由意志》 一书中提出了一个有趣的问题, 但在我看来, 也可说就是一个科学问题。 他的问题是, 人的心理强度是否可以用大小来计量, 他问: “难道说, 较强的感觉在意义上包涵较弱的感觉吗? 难道说, 只有在事先经过同一感觉各较弱阶段的条件下, 我们才能达到较强的感觉吗? 难道说, 这里所涉及的也是容者和被容者的关系吗?”③ 伯格森把数量问题分成两种, 一种是广度性的和可测量的; 一种是强度性的和不可测量的。 人工智能一般来说能够处理的是可测量的问题, 但对于人的心理状态的强度这样不可测量的问题, 恐怕就无法通过数学模型的方式进行模仿。 通常人们会以为情感、 情绪之类的心理动态可以有大小之分, 但你能说 “悲痛欲绝” 相当于许多个“小伤心” 之和, 或许多个 “心情愉快” 加起来等于 “欣喜若狂” 吗?
图灵的 “停机问题” 和希尔伯特的数学问题, 以及刚才谈到的情感强度问题, 使笔者联想到另外一个问题, 即人工智能能 “自杀” 吗? 这个问题听起来令人不愉快, 却涉及人工智能的主体性问题。 黑格尔在 《法哲学原理》 中提到了这样一个问题, 他说: “作为人来说, 我本身是一个直接的个人。 如果对这一点作进一步的规定, 那首先就是说: 我在这个有机身体中活着, 这个身体按其内容来说是我的普遍的、 不可分割的、 外部的定在, 而且是一切再进一步被规定了的定在的实在可能性。 但是作为人, 我像拥有其他东西一样拥有我的生命和身体, 只要有我的意志在其中就行。”④ 也就是说,我作为有着自由意志的人, 我的身体就像外部存在物一样, 也是我的自由意志的定在, 我是把我的意志体现在我的肉体中, 因此, “只有在我愿意要的时候, 我才具由这四肢和生命, 动物不能使自己成为残废, 也不能自杀, 只有人才能这样做”⑤。 动物没有这种自主意识, 没有这种自由意志和自我意识, 因而是不会自杀的。 那么人工智能也同样不会产生自杀的举动。 尽管眼下不少科学家正在致力于制造 “情感型” 机器人, 但在笔者看来, 除了对人的情感表现做出外部模仿外, 绝无可能产生真正有情感的机器人。 我们很难想象, 没有经历过自我意识生成的生命过程, 没有肉体生命才会有的“欲望”, 没有以 “自我” 为根据的自由活动, 没有与生命活动密切相关的肉体和心灵的痛苦与愉悦,怎么会像人一样产生真正的情感? “自杀行为” 更是如此。 不少动物可以像人那样成群结队地去 “自杀”, 但它们是因万念俱灰而自我放弃自己的生命吗?
6
规范与 “对齐问题”
需要我们认真思考的问题是, 是否应当规范人工智能的发展。 当然首先应当弄清楚, 到底是要对谁进行规范? 为什么要进行规范? 这个问题涉及人工智能领域的所谓 “对齐问题”。 在计算机领域,所谓对齐就是要求人工智能的活动能够与人类的价值观达到一致, 从而不会做出危害人类的行为。 之所以提出 “对齐问题”, 主要是因为人工智能系统不像人那样能 “思考”, 如果我们不十分谨慎地说明我们想让它们做什么, 它们的行为方式就有可能是我们意想不到的和有害的。 例如, 哲学家、 牛津大学人类未来研究所所长 Nick Bostrom, 曾经就提出一个经典案例, 说如果有一个能力强大的超级智能机器, 我们人类给它布置了一个任务, 就是要 “制作尽可能多的回形针”, 那么这个能力强大的超级智能机器就会不择手段地制作回形针, 最后把地球上所有的人和事物都变成制作回形针的材料。 现实中也有很多真实的案例, 一个没有价值对齐的 AI 大模型, 还可能输出含有种族或性别歧视的内容,帮助网络黑客生成用于进行网络攻击、 电信诈骗的代码或其他内容, 尝试说服或帮助有自杀念头的用户结束自己的生命, 等等。 《对齐问题》 一书的作者、 美国加利福尼亚大学伯克利分校的访问学者布赖恩·克里斯蒂安表示: 人工智能对齐 (人类的目标与价值观) 的挑战是巨大的, 因为将模糊的人类欲望转化为计算机的冰冷的数字逻辑, 这本身就很困难。
对齐问题的确构成了一个严峻的挑战。 但我们应当清楚, 这个挑战不是来自人工智能技术本身。依照我们前面的分析, 人工智能不可能发展成一个自主的主体, 因而也不可能按照自己的价值观做出违背人类价值观的事情。 不论发生的问题有多么复杂, 其根源归根到底来自人的指令、 程序设计、 数据资源, 来自大型语言模型本身的运作机制。 如果真的能够发展出全面超越人类的超级 AI 系统, 可以让这样的智能系统自主地做出有利于人类的价值选择, 那么 “对齐问题” 就根本没有意义了。 因为如果它们能做出有利于人类的价值选择, 就有可能做出危害人类的价值选择, 谁也无法控制这种超级智能的行为。 设想一下, 原本就有各种非凡能力, 同时又没有自然肉体局限性的人工智能, 一旦获得了主体地位, 拥有自我决定的能力, 你如何阻止它确认和维护自己的权利, 如何要求他一定要把保护人类作为自己的义务? 在这个意义上, 阿西莫夫给机器人定下的 “三个定律” 也完全是虚幻的,就好像我们人类是从猿类进化出来的, 但猿类怎么可能给我们人类定规矩?
因此, 根据本文的分析, 在对齐问题上, 人工智能带来的危害从根本上说来自于人工智能的研发者、 制造者和使用者。 这种危害大致也可以分为两类, 一类是由人工智能技术的不够完善造成的, 这类危害是可以通过技术发展来解决的, 如通过人为干预的方式, 把符合人类价值原则的目标纳入大型语言模型 (GPT-4) 的反馈学习、 分布偏移学习、 保证和治理等领域, 确保人工智能在执行任务时符合人类的意图和价值观。 第二类危害是真正令人感到恐怖的危害, 即人工智能所做出的危害人类行为是来自研发者、 制造者和使用者的恶意。 谁掌握了或谁有能力使用强大的人工智能系统, 谁就有可能让这个系统按照自己的价值选择进行活动。 如果研发、 制作和使用人工智能的人是一群有组织的诈骗犯, 那就有可能使人工智能被大规模地用于诈骗, 如眼下令人深恶痛绝、 令警方头痛不已的网络电信诈骗; 如果是一批战争狂人, 那就有可能使人工智能成为战争武器, 让高智能的武器改变战争的方式, 甚至决定战争的结局, 就如同今天我们在俄乌战场上看到的那样。
因此, 需要规范和约束的不是人工智能技术本身, 而是研发、 制造和使用人工智能的人。 要使人工智能能够与人类智能对齐, 迫切需要为研发、 制造和使用人工智能制定更为严谨、 严格的法律制度, 使人工智能的发展更好地服务于人类的进步事业。 尤其是从事研发和制造人工智能系统的科技人员, 更应有良好的道德修养和严格的法治意识, 有勇气对任何企图恶意使用人工智能的人或集团说“不”, 使人工智能的研发、 制造和使用始终能够处在良好的道德环境、 社会环境、 文化环境和政治环境中, 从而能够为人类创造更为充裕的物质财富和 “自由时间”。
(参考文献略)
审核:素朴子
人学研究
微信号|人学研究