跳至主要內容

人工智能

naijoug大约 3 分钟

catalog

reference


concept

abbrfulldescription
NLPNatural Language Processing自然语言处理
LLMsLarge Language Models大语言模型
GLMGeneral Language Model通用语言模型
LoRALow-Rank Adaptation of Large Language Models大语言模型的低阶适应
BERTBidirectional Encoder Representations from Transformers基于大规模无监督预训练的双向表示法
GPTGenerative Pre-trained Transformer生成式预训练语言模型
LLaMALarge Language Model Meta AIfacebook 大语言模型
RNNRecurrent Neural Network循环神经网络
CNNConvolutional Neural Network卷积神经网络
ELMOEmbeddings from Language Models
SASelf-Attention自注意力机制
F-FNNFeed-Forward Neural Networks前向神经网络
RCResidual Connection残差连接
MLMMasked Language Model掩码语言模型
NSPNext Sentence Prediction下一句预测
POSPart of Speech词性
TFTerm Frequency词频
SWStop Words停用词
IDFInverse Document Frequency逆文档频率
FTFine Tuning微调

community

TensorFlow vs PyTorch vs Jax

Transformer vs RNN vs CNN

  • Transformer : (Multi-Head Attention) 多头自注意力机制

    特色 : 自然语言处理

  • RNN : 循环神经网络

    特色 : 处理序列数据和时序关系

  • CNN : 卷积神经网络

    特色 : 处理网格数据(如: 图像处理)

GUI

tools

tutorial