无封面
2025-08-13
大模型专业词汇集合
-
LLM:Large Language Model(大型语言模型),是一类基于海量文本数据训练的深度学习模型,能够理解和生成人类语言,具备强大的自然语言处理能力。其核心特点是参数量巨大(通常以亿甚至千亿为单位),可通过上下文理解完成多种任务,如文本生成、问答、翻译、摘要等,典型代表包括GPT系列、LLaMA系列、文心一言等。
-
Transformer:一种基于自注意力机制(Self-Attention Mechanism)的深度学习模型架构,2017年由谷歌团队在论文《Attention Is All You Need》中提出。它彻底摒弃了传统RNN(循环神经网络)的序列依赖结构,通过并行计算处理输入序列,能更高效地捕捉文本中的长距离依赖关系,是当前大多数LLM的核心架构基础,广泛应用于自然语言处理、计算机视觉等领域。
-
CNN:Convolutional Neural Network(卷积神经网络),是一种擅长处理网格结构数据(如图像、视频、文本的局部特征)的深度学习模型。其核心组件是卷积层,通过滑动窗口(卷积核)提取数据的局部特征,并结合池化层进行特征降维和抽象。在自然语言处理中,CNN可用于文本分类、情感分析等任务(如提取短语级局部特征),但在处理长文本依赖关系上不如Transformer高效,常与其他架构结合使用。
-
待补充:
评论区
暂无评论,快来发表第一条评论吧~