AI大模型包含哪些些技术?
<h2>Prompt</h2><p>Prompt提示是模型接收以生成响应或完成任务的初始文本输入。</p>
<p>我们给AI一组Prompt输入,用于指导模型生成响应以执行任务。这个输入可以是一个问题、一段描述、一组关键词,或任何其他形式的文本,用于引导模型产生特定内容的响应。<br />
</p>
<p> </p>
<h2>Transformer</h2>
<p>Transformer是一种用于自然语言处理(NLP)和其他序列到序列(sequence-to-sequence)任务的深度学习模型架构,它在2017年由Vaswani等人首次提出。</p>
<p>Transformer架构引入了自注意力机制(self-attention mechanism),这是一个关键的创新,使其在处理序列数据时表现出色。</p>
<p> </p>
<h2>预训练</h2>
<p>预训练(Pre-training)通常是指对模型进行无监督或自监督学习的过程,在大规模未标注数据上先训练模型,以便为后续任务提供一个高质量的初始权重。这个过程对于许多复杂模型尤其是 transformer 架构(比如BERT、GPT系列等)来说极其重要。</p>
<p> </p>
<h2>Function Calling</h2>
<p>Function Calling是一个允许大型语言模型(如 GPT)在生成文本的过程中调用外部函数或服务的功能。<br />
Function Calling允许我们以 JSON 格式向 LLM 模型描述函数,并使用模型的固有推理能力来决定在生成响应之前是否调用该函数。模型本身不执行函数,而是生成包含函数名称和执行函数所需的参数的JSON。</p>
<p> </p>
<h2>Rag</h2>
<p><strong>RAG(中文为检索增强生成)= 检索技术 + LLM 提示。</strong></p>
<p>例如,我们向 LLM 提问一个问题(answer),RAG 从各种数据源检索相关的信息,并将检索到的信息和问题(answer)注入到 LLM 提示中,LLM 最后给出答案。</p>
<p> </p>
<h2>GPTs</h2>
<p>GPTs其实就是一个模板,把你的需求告诉GPTs,它会按照你的想法去生成新的ChatGPT,相当于把你的想法写成了一个模板,供你个性化使用。</p>
<p>每次使用的时候直接输入你的话题或者部分内容,这时候的ChatGPT就会按照你设定的使用规则跟你对话,直接输出你需要的内容,而不需要你每次都输入一定的提示指令去引导。</p>
<p> </p>
<h2>LangChain</h2>
<p>LangChain 就是一个 LLM 编程框架,你想开发一个基于 LLM 应用,需要什么组件它都有,直接使用就行;甚至针对常规的应用流程,它利用链(LangChain中Chain的由来)这个概念已经内置标准化方案了。</p>
<p> </p>
<h2>Agent</h2>
<p>智能体的英文是 Agent,AI业界对智能体提出了各种定义。</p>
<p>个人理解,智能体是一种通用问题解决器。从软件工程的角度看来,智能体是一种基于大语言模型的,具备规划思考能力、记忆能力、使用工具函数的能力,能自主完成给定任务的计算机程序。</p>
<p> </p>
<h2>Fine-tuning</h2>
<p>微调是指在预训练模型(Pre-trained model)的基础上,针对特定任务或数据领域,对部分或全部模型参数进行进一步的训练和调整(Fine Tune)。</p>
<p>预训练模型通常是在大规模数据集上训练得到的,具有一定的通用性和泛化能力。微调的目标是在较小的目标数据集上,通过有限的训练数据,使模型更好地适应特定任务,从而提高模型在该任务上的性能。</p>
<p>AI大模型包含哪些些技术,说完了没有,应该还有</p>
<p>哪些模型目前比较常用啊?Function Calling吗?</p>
<p>每种技术都有对应的应用场景。</p>
<p>了解了解,我在嗑一些书看看里面有没有这些的内容</p>
页:
[1]