Skip to content
AI-HPC.org
Search
K
Main Navigation
首页
关于联盟
资讯与洞察
工作组
AI4Science 平台
科学问题
软件工厂
AI4Science 引擎
Compute OS
科学案例库
工具市场
资源与社区
知识库
社区互动
会议与活动
AI-HPC 智能专家
简体中文
English
简体中文
English
Appearance
EN
Menu
Return to top
页面导航
大模型预训练技术
Transformer 架构详解
Self-Attention (自注意力机制)
Multi-Head Attention
Feed Forward Network (FFN)
位置编码
绝对位置编码 (Sinusoidal)
旋转位置编码 (RoPE)
训练目标
Masked Language Modeling (MLM)
Causal Language Modeling (CLM, Next Token Prediction)