LLM 问答过程(通俗动画)
展示:输入 → Token → Embedding坐标 → Transformer特征 → 概率 → 逐词输出
step: 0
提示:速度影响每个阶段的停留时长(不影响逻辑)。
这里为了演示,生成结果是“模拟的”,但流程和真实模型一致。
准备就绪:输入一句话,点“开始动画”。
mode: auto tokens: — out: 0

① 输入文本 idle

用户输入:模型先接收一段字符串。

hello
x: text

② Tokenize idle

把文本切成 token(编号)。

x: token ids

③ Embedding idle

根据 token id 取出向量坐标(查表)。

E[V×d] x: vectors

④ Transformer idle

多层“看关系(Attention)+改特征(FFN)”,输出更有用的特征。

features context-aware

⑤ 概率分布 idle

把特征映射到词表,得到“下一个 token”的概率。

softmax P(next token)