第1章生成式人工智能入门;;人工智能概览;;;1950年,艾伦·麦席森·图灵发表了一篇题为“ComputingMachineryandIntelligence(计算机器与智能)”的论文。这篇论文提出了一种通过测试来判定机器是否有智能的方法,被后人称为“图灵测试(Turingtest)”。该测试让测试者与被测试者(一个人和一台机器)在隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。这一划时代的作品,使图灵赢得了“人工智能之父”的桂冠。;2016年,AlphaGo(一款围棋人工智能程序)与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜。;2020年,谷歌旗下DeepMind的AlphaFold2人工智能系统有力地解决了蛋白质结构预测的里程碑式问题。;人工智能研究的主要学派

;生成式人工智能;;AIGC的特点与核心技术;AIGC核心技术详解;;卷积神经网络是目前深度学习技术领域中非常具有代表性的神经网络之一,在图像分析和处理领域取得了众多突破性的进展。目前在学术领域,基于卷积神经网络的研究取得了很多成果,包括图像特征提取分类、场景识别等。;;生成对抗网络;生成对抗网络的应用实例;;文本处理领域的Encoder-Decoder框架可以这么直观地去理解:可以把它看作适合处理由一个句子(或篇章)生成另外一个句子(或篇章)的通用处理模型。;注意力机制;注意力机制在多个领域都有广泛应用,尤其在深度学习和机器学习模型中,它能够显著提升模型的性能和可解释性。

在机器翻译中,注意力机制使模型能够关注源语言句子中的不同单词,而不是简单地基于位置进行对齐。这在处理长距离依赖关系时尤其有用,例如当翻译一个长句子时,模型可以准确地知道哪些单词应该对应。

《生成式人工智能技术与应用》课件  第1在图像分类或目标检测任务中,注意力机制可以帮助模型聚焦于图像的关键区域,而不是背景或其他不相关信息。

在语音识别中,注意力机制能够帮助模型区分有用的语音特征和噪声,这对于提高在嘈杂环境下的识别精度至关重要。;;使用扩散模型来生成的图像,该图展现了一个宁静的山水风光。;???用扩散模型来生成高质量的视频。该视频主题为小树苗生长在大地上,并使用画家梵高的风格来实现。;Transformer架构;标准的Transformer架构如图所示,由编码器和解码器两个部分构成,而这两个部分实际上可以独立使用;多头注意力是Transformer模型的核心创新技术。相比于循环神经网络(RecurrentNeuralNetwork,RNN)和卷积神经网络(ConvolutionalNeuralNetwork,CNN)等传统神经网络,多头注意力机制能够直接建模任意距离的词元之间的交互关系。;目前基于Transformer的著名模型主要有BERT、GPT、T5以及RoBERTa。

BERT(BidirectionalEncoderRepresentationsfromTransformers):Google开发的一种深度学习模型,其核心思想是在训练阶段对输入文本进行双向的编码,这意味着模型可以同时从左到右和从右到左读取上下文,从而更好地理解词语在句子中的意义。BERT在大规模语料上进行无监督预训练,然后可以通过微调来适应特定的NLP任务。

GPT(GenerativePre-trainedTransformer):GPT系列模型由OpenAI开发,专注于单向的Transformer解码器,特别擅长文本生成。

T5(Text-to-TextTransferTransformer):T5是Google发布的模型,该模型的主要特点是它将所有的自然语言处理任务都转换为文本到文本的形式,这意味着无论是文本分类、问答系统、语义解析还是机器翻译等任务,都可以被看作是从一段文本转换成另一段文本的问题。;生成式人工智能工具;;讯飞星火;;智谱清言是由北京智谱华章科技有限公司推出的一款生成式AI助手,于2023年8月31日正式上线。这款助手基于智谱AI自主研发的中英双语对话模型ChatGLM2,该模型经过了万亿字符的文本与代码预训练,并采用了有监督微调技术,以通用对话的形式为用户提供智能化服务。;;;;提示词与提示工程;;用户通过提供合适的提示语,可以帮助模型更好地理解文本的语境和上下文,从而使之生成更加准确和连贯的文本。同时,高质量的提示语也可以帮助模型在生成文本时避免一些常见的语法和用词错误,进一步提升生成文本的质量。;在AIGC工具中输入提示词如下。

如何制作一杯卡布奇诺;在AIGC工具中输入提示词如下。

帮我画深海里的古风女孩,侧脸美颜,甜美微笑;在AIGC工