BiLSTM 与使用位置编码的LLM(如Transformer)的核心区别 一、架构原理对比 维度 BiLSTM 带位置编码的LLM(如Transformer) 基础单元 LSTM单元(记忆细胞、门控机制) 自注意力机制(Self-Attention) 信息传递 双向链式传播(前向+后向LSTM) 并行多头注意力,全局上下文关联 位置信息 隐式建模(通过双向传播间接捕捉顺序) 显式位置编码(如正弦编码、可训练编码) 长距离依赖