《拥抱AIGC 应用ChatGPT和OpenAI API》 整书速览及其第一部分基础知识阅读
[复制链接]
本帖最后由 MioChan 于 2024-8-14 16:19 编辑
前几天终于收到了《拥抱AIGC 应用ChatGPT和OpenAI API》这本书,简单翻了一下,总的来看是一本探讨生成式人工智能及其应用的书籍,像是比较难懂的理论知识其实很少,主要都是在介绍怎么应用,甚至我感觉就是一本ChatGPT和OpenAI API的使用说明书。自从ChatGPT推出之后我就其实一直在用了,让GPT帮忙写一下废话或者逻辑比较清晰的代码还是很方便。
第一部分差不多就是绪论吧,主要介绍了生成式人工智能的概念、发展历程以及相关技术背后的数学原理。AIGC简单来说就是一类通过学习大量数据来生成新内容的人工智能模型,像是第一章也列举了常见的几种AIGC应用,比如ChatGPT这种大语言模型、图片生成模型以及音乐生成模型,事实上现在的AIGC应用太多了,除了这些最常用的还有语音方向的例如TTS这种语音生成模型,而且除了二维图片现在3D模型以及视频方面的AIGC也在迅速发展。
至于生成式AI的研究历史,书中主要列举了生成对抗网络(GAN)、变分自动编码器(VAE)、TransFormer等等,其实生成式AI再往早一点说,还有基于统计方法,如朴素贝叶斯模型和隐马尔可夫模型(HMM)这些。Transformer提出应该算是一个里程碑的事件,可以说是彻底取代了RNN,模型结构图如上所示,因为采用了自注意力机制,使得模型能够高效地捕捉序列数据中的长程依赖关系,在自然语言处理任务中表现出色,成为许多生成模型的基础。随后OpenAI提出了GPT模型,GPT也是基于Transformer架构的大型语言模型实现的,核心思想是预训练和微调。GPT-1是首个GPT模型,展示了预训练与微调结合的有效性。GPT-2的模型规模显著增加,能够生成高质量、连贯的长文本,展现了更好的生成能力。GPT-3的模型参数达到1750亿,进一步提升了生成文本的质量和多样性,能够在多个任务上实现零样本和少样本学习能力。GPT-4继续在模型规模和生成能力上取得突破,支持多模态输入(如图像和文本),在跨领域任务中展现了更广泛的应用。后续的具体原理因为OpenAI逐渐变成了CloseAI,也没有开源所以详细的细节也不得而知。
我记得当时注册Oppo AI账号还要验证手机号之类的,步骤还比较麻烦,但现在似乎不验证手机号了,注册还是很容易,而且现在国内的LLM发展的也算可以,如果没玩过还是值得体验一下。最后附上一张LLM的发展历史图供大家学习参考。
|