Skip to content
AI-HPC.org
Search
K
Main Navigation
首页
技术指南
社区共建
AI-HPC 智能助手
关于我们
简体中文
English
简体中文
English
Appearance
Menu
Return to top
页面导航
大模型预训练技术
Transformer 架构详解
Self-Attention (自注意力机制)
Multi-Head Attention
Feed Forward Network (FFN)
位置编码
绝对位置编码 (Sinusoidal)
旋转位置编码 (RoPE)
训练目标
Masked Language Modeling (MLM)
Causal Language Modeling (CLM, Next Token Prediction)