从零实现大语言模型:Transformer架构、自注意力机制与PyTorch实战

news2026/5/16 1:40:24
1. 项目概述从零构建大语言模型的实践指南最近几年大语言模型LLM无疑是技术领域最耀眼的存在。从ChatGPT的横空出世到各类开源模型的百花齐放它们展现出的理解和生成能力令人惊叹。然而对于许多开发者和学习者而言这些模型往往像是一个“黑箱”——我们知道输入什么、得到什么但对其中精妙的内部运作机制却知之甚少。市面上充斥着大量调用API的教程但关于“如何亲手从零开始构建一个属于自己的语言模型”的深度实践内容却相对稀缺。这正是“rasbt/LLMs-from-scratch”这个开源项目弥足珍贵的地方。它不是一个简单的模型调用库而是一份详尽的、教育性的“建造手册”。项目作者Sebastian Raschka博士以其深厚的机器学习教学背景带领我们深入LLM的腹地从最基础的文本分词开始一步步搭建起一个功能完整的、基于Transformer架构的GPT风格模型。这个过程不仅仅是代码的堆砌更是对注意力机制、前馈网络、层归一化等核心概念的一次“外科手术式”的解剖。如果你厌倦了仅仅当一个API的调用者渴望理解模型每一行代码背后的数学原理和设计哲学那么这个项目就是你梦寐以求的实战地图。它适合有一定Python和PyTorch基础并希望深入理解现代LLM核心技术的开发者、学生和研究者。2. 核心架构与设计思路拆解2.1 为何选择“从零实现”作为教学路径在深度学习框架高度成熟的今天我们完全可以使用一两行代码就导入一个预训练好的Transformer模块。那么花费大量精力去手动实现每一个组件意义何在这个项目的设计思路给出了清晰的答案深度理解与祛魅。首先“从零实现”是打破认知壁垒的最有效方式。当你亲手用矩阵乘法实现自注意力机制时你才会真正理解Q查询、K键、V值三个张量是如何交互并计算出上下文感知的表示的。你会在调试中亲眼看到如果没有缩放因子sqrt(d_k)注意力权重的方差会随着维度增大而剧增导致Softmax后梯度消失这比任何教科书上的公式都更令人印象深刻。其次它提供了无与伦比的灵活性和控制力。项目不是构建一个固化的黑盒而是提供了一个高度模块化的代码库。你可以轻松地修改注意力头的数量、调整前馈网络的隐藏层维度、尝试不同的位置编码方案如学习式位置编码、旋转位置编码RoPE甚至设计自己的层归一化位置Pre-Norm vs. Post-Norm。这种“乐高积木”式的设计让你能够针对特定任务或学术猜想进行快速实验和验证。最后它奠定了故障诊断和模型优化的坚实基础。在实际研发中模型训练失败如损失不下降、梯度爆炸是家常便饭。如果你对模型内部数据流的每一个环节都了如指掌你就能像经验丰富的老中医一样通过观察中间激活值的分布、梯度的范数快速定位问题所在——是初始化出了问题还是激活函数选择不当抑或是残差连接没有被正确实现这份从底层构建的经验是使用高级API无法获得的宝贵资产。注意这里的“从零实现”并非指从硬件电路开始而是在深度学习框架PyTorch的基础上不依赖nn.Transformer等高级封装模块亲自实现Transformer的所有子层。这平衡了教学深度和实操可行性。2.2 项目整体技术栈与模块化设计项目采用了清晰、现代且高效的技术栈确保学习过程顺畅且与工业界实践接轨。核心框架PyTorch。选择PyTorch而非TensorFlow或其他框架主要因其动态计算图带来的卓越灵活性和调试便利性。在实现复杂模型结构时能够使用标准的Python控制流和打印语句实时检查张量形状与数值这对教学和实验至关重要。辅助工具Hugging Face Datasets / Tokenizers。项目明智地没有重复造轮子去实现复杂的分词算法如BPE而是利用Hugging Face生态中成熟、高效的tokenizers库来处理文本。同时使用datasets库方便地加载标准数据集如WikiText-2让学习者能将精力聚焦于模型本身而非数据预处理管道。可视化与实验管理Weights Biases (WB)。项目集成了WB进行实验跟踪可以实时监控训练损失、评估指标并可视化注意力权重等。这对于理解模型行为和进行消融实验非常有帮助。在模块化设计上项目严格遵循了Transformer论文的原始划分并将每个组件封装为独立的PyTorch模块nn.Module嵌入层包含词嵌入和位置编码。Transformer块每个块包含多头自注意力层、前馈网络层以及环绕它们的层归一化和残差连接。注意力机制实现了缩放点积注意力并在此基础上构建了多头注意力。前馈网络标准的两个线性层加一个激活函数如GELU。输出层将最终的隐藏状态映射回词表大小的逻辑值用于计算损失或生成下一个词。这种设计使得代码结构一目了然你可以像阅读教科书一样对照论文中的公式和图解来阅读每一部分的代码实现。3. 关键组件深度解析与实现细节3.1 分词与嵌入模型理解的“第一公里”任何语言模型的第一步都是将人类可读的文本转化为机器可处理的数字。这个过程看似简单却至关重要。分词策略的选择项目使用了字节对编码BPE这是GPT系列模型的标准选择。与Word-level词级分词相比BPE能更好地处理未登录词OOV问题与Character-level字符级分词相比它又能在序列长度和语义粒度之间取得更好的平衡。通过Hugging Face的tokenizers库我们可以基于特定语料训练一个BPE分词器它会生成两个关键文件vocab.json词汇表映射和merges.txt合并规则。from tokenizers import Tokenizer from tokenizers.models import BPE from tokenizers.trainers import BpeTrainer from tokenizers.pre_tokenizers import Whitespace # 初始化一个BPE分词器 tokenizer Tokenizer(BPE(unk_token[UNK])) tokenizer.pre_tokenizer Whitespace() trainer BpeTrainer(special_tokens[[UNK], [CLS], [SEP], [PAD], [MASK]], vocab_size50000) # 假设我们有一个文本文件列表 files [path/to/corpus.txt] tokenizer.train(files, trainer) # 保存与加载 tokenizer.save(my_bpe_tokenizer.json)嵌入层的实现得到token ID后我们需要通过一个nn.Embedding层将其转换为稠密向量。这里的一个关键细节是嵌入权重的初始化。通常我们会使用标准差较小的正态分布或Xavier均匀分布进行初始化以防止梯度在初期就出现不稳定。import torch.nn as nn vocab_size 50000 embed_dim 768 self.token_embedding nn.Embedding(vocab_size, embed_dim) nn.init.normal_(self.token_embedding.weight, mean0.0, std0.02) # GPT-2风格的初始化位置编码的奥秘Transformer本身不具备序列顺序信息因此必须注入位置编码。项目实现了经典的正弦余弦位置编码。其公式为PE(pos, 2i) sin(pos / 10000^(2i/d_model))PE(pos, 2i1) cos(pos / 10000^(2i/d_model))其中pos是位置i是维度索引。这种编码的妙处在于对于固定的偏移量kPE(posk)可以表示为PE(pos)的线性函数这使得模型能够轻松学习到相对位置关系。在代码中我们通常会预先计算一个足够大的位置编码矩阵并在前向传播时根据输入序列长度进行切片使用。实操心得在调试嵌入层时一个有用的技巧是检查嵌入权重的L2范数。在训练初期如果这个范数增长或缩小得非常快可能预示着学习率设置不当或梯度流动有问题。此外对于小规模实验可以尝试使用可学习的学习式位置编码有时它能比固定的正弦编码获得更好的效果尤其是当训练数据足够时。3.2 自注意力机制模型的核心发动机自注意力机制是Transformer乃至所有现代LLM的灵魂。它的核心思想是序列中的每个元素token都应该根据整个序列的所有元素来更新自己的表示而不是像RNN那样只依赖于前面的元素。缩放点积注意力的实现线性投影对于输入序列X我们通过三个不同的权重矩阵W_Q,W_K,W_V分别投影得到查询Q、键K、值V三个张量。计算注意力分数通过Q和K的点积计算每个查询对所有键的“相关性”分数。公式为Attention(Q, K, V) softmax(QK^T / sqrt(d_k)) V。缩放除以sqrt(d_k)键向量的维度至关重要。这是因为点积的值会随着维度d_k的增大而增大将Softmax函数推入梯度极小的区域导致训练不稳定。Softmax与加权求和对分数进行Softmax归一化得到注意力权重所有token对当前token的重要性分布然后用这个权重对V进行加权求和得到当前token新的上下文感知表示。import torch import torch.nn.functional as F def scaled_dot_product_attention(query, key, value, maskNone): d_k query.size(-1) scores torch.matmul(query, key.transpose(-2, -1)) / math.sqrt(d_k) if mask is not None: scores scores.masked_fill(mask 0, -1e9) # 在解码器中用于屏蔽未来信息 attn_weights F.softmax(scores, dim-1) output torch.matmul(attn_weights, value) return output, attn_weights从单头到多头单一注意力头只能捕捉一种类型的依赖关系。为了允许模型同时关注来自不同表示子空间的信息我们引入了多头注意力。具体做法是将d_model维的Q、K、V分别投影h次h是头数到d_k、d_k、d_v维然后在每个头上并行执行缩放点积注意力最后将h个头的输出拼接起来再通过一个线性层W_O投影回d_model维。在实践中通常设置d_k d_v d_model / h。因果掩码的实现对于GPT这样的自回归语言模型在训练时我们必须确保当前位置的预测只能依赖于它之前左侧的token而不能“偷看”未来的信息。这通过一个下三角矩阵掩码来实现。在计算注意力分数后我们将未来位置j i的分数设置为一个极大的负数如-1e9这样经过Softmax后这些位置的权重就几乎为0。# 生成一个下三角因果掩码 seq_len query.size(-2) causal_mask torch.tril(torch.ones(seq_len, seq_len)).view(1, 1, seq_len, seq_len) # 在注意力函数中应用 scores scores.masked_fill(causal_mask 0, -1e9)3.3 前馈网络与残差连接稳定训练的基石在自注意力层之后每个位置的特征会独立地通过一个前馈网络。这是一个简单的两层全连接网络中间有一个非线性激活函数通常为GELU。class FeedForward(nn.Module): def __init__(self, d_model, d_ff, dropout0.1): super().__init__() self.linear1 nn.Linear(d_model, d_ff) self.linear2 nn.Linear(d_ff, d_model) self.dropout nn.Dropout(dropout) self.activation nn.GELU() # 比ReLU更平滑效果通常更好 def forward(self, x): return self.linear2(self.dropout(self.activation(self.linear1(x))))这里d_ff通常是d_model的4倍例如d_model768时d_ff3072。这个“瓶颈”结构先扩维再缩维为模型提供了强大的非线性变换能力。然而直接将如此多的层堆叠起来GPT-3有96层极易导致梯度消失或爆炸。Transformer架构的两个关键设计解决了这个问题残差连接和层归一化。残差连接将子层如自注意力或前馈网络的输入直接加到其输出上即output sublayer(x) x。这创建了一条从浅层到深层的“高速公路”使得梯度可以直接回流极大地缓解了深度网络中的梯度消失问题。层归一化对单个样本的所有特征维度进行归一化使其均值为0方差为1。在Transformer中通常采用Pre-Norm在子层之前进行归一化的方式即output x sublayer(LayerNorm(x))。这种方式被证明在训练深度Transformer时更加稳定。项目中也采用了这种主流做法。class TransformerBlock(nn.Module): def __init__(self, d_model, num_heads, d_ff, dropout0.1): super().__init__() self.attn MultiHeadAttention(d_model, num_heads) # 假设已实现 self.ff FeedForward(d_model, d_ff, dropout) self.norm1 nn.LayerNorm(d_model) self.norm2 nn.LayerNorm(d_model) self.dropout nn.Dropout(dropout) def forward(self, x, maskNone): # Pre-Norm 残差连接 attn_output, _ self.attn(self.norm1(x), maskmask) x x self.dropout(attn_output) ff_output self.ff(self.norm2(x)) x x self.dropout(ff_output) return x4. 完整训练流程与超参数配置实战4.1 数据准备与批处理策略一个高效的训练管道是成功的一半。对于语言模型我们需要构建一个能够连续预测下一个token的数据流。数据集加载与预处理以WikiText-2为例我们使用Hugging Facedatasets库加载并使用之前训练好的BPE分词器进行处理。关键是将文本转换为连续的token ID序列。from datasets import load_dataset dataset load_dataset(wikitext, wikitext-2-raw-v1) # 分词函数 def tokenize_function(examples): return tokenizer(examples[text], truncationTrue, max_length1024) tokenized_datasets dataset.map(tokenize_function, batchedTrue, remove_columns[text])构造语言模型目标对于输入序列[x1, x2, ..., xT]语言模型的目标是预测[x2, x3, ..., xT1]。因此在构建批次时我们的标签labels就是输入序列向右移动一位。需要小心处理序列的边界。动态批处理与序列打包为了高效利用GPU内存我们通常采用动态批处理。即固定每个批次的token总数而不是序列条数。例如设定批次token总数为MAX_TOKENS_PER_BATCH 4096。这样一个包含2条长度为2048的序列的批次与一个包含4条长度为1024的序列的批次其计算量是相近的。这需要自定义一个DataLoader的采样器sampler将长度相近的序列打包在一起。4.2 模型初始化与优化器选择模型的初始化对训练的稳定性和最终性能有巨大影响。对于Transformer通常采用以下策略线性层/嵌入层使用正态分布初始化如N(0, 0.02)。LayerNorm层其权重gamma初始化为1偏置beta初始化为0。注意力投影层有时会对Q、K投影层使用更小的初始化方差。优化器方面AdamW是训练Transformer的绝对主流。它修正了Adam中权重衰减的实现能带来更好的泛化性能。关键超参数包括学习率通常较小例如3e-4到5e-4。可以使用学习率预热策略在训练初期从一个很小的值如1e-7线性增加到目标学习率这有助于稳定训练初期。权重衰减通常设置为一个小的常数如0.1用于正则化。β1, β2Adam的动量参数通常使用默认值0.9和0.999。梯度裁剪为了防止梯度爆炸通常设置一个梯度范数阈值如1.0当梯度的L2范数超过该值时将其缩放。from torch.optim import AdamW from transformers import get_linear_schedule_with_warmup optimizer AdamW(model.parameters(), lr5e-4, weight_decay0.1, betas(0.9, 0.999)) # 假设总训练步数为total_steps预热步数为warmup_steps scheduler get_linear_schedule_with_warmup( optimizer, num_warmup_stepswarmup_steps, num_training_stepstotal_steps )4.3 训练循环与损失监控训练循环是标准的PyTorch流程但有几个细节需要注意前向传播输入input_ids模型输出logits形状为[batch_size, seq_len, vocab_size]。损失计算使用交叉熵损失。需要将logits和labels都reshape为二维张量[batch_size * seq_len, vocab_size]和[batch_size * seq_len]并忽略掉labels中为-100的填充位置。反向传播与优化调用loss.backward()然后进行梯度裁剪torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm1.0)最后执行optimizer.step()和scheduler.step()。评估指标除了损失困惑度是衡量语言模型性能的更直观指标。困惑度Perplexity, PPL是交叉熵损失的指数形式PPL exp(loss)。它近似表示模型在预测下一个词时的“平均分支因子”值越低越好。使用WB或TensorBoard记录损失和困惑度的变化曲线至关重要。一个健康的训练曲线应该是训练损失平稳下降验证损失先下降后趋于平稳或缓慢上升出现过拟合迹象。5. 文本生成策略与模型评估5.1 自回归文本生成解码策略训练好的模型本质上是一个下一个词预测器。如何利用它生成连贯的、多样化的文本就需要解码策略。贪婪解码最简单的方式每一步都选择概率最高的词作为下一个词。这种方式效率高但容易导致重复、乏味的文本。next_token_id torch.argmax(logits[:, -1, :], dim-1)束搜索维护一个大小为k束宽的候选序列集合。在每一步对每个候选序列扩展所有可能的下一个词然后只保留总概率最高的k个新序列。束搜索通常比贪婪解码产生更流畅的文本但计算量更大且有时会导致文本过于保守和模板化。采样策略为了增加创造性我们引入随机性。随机采样直接从Softmax后的概率分布中采样下一个词。这可能导致不连贯。核采样只从累积概率超过某个阈值p如0.9的最高概率词集合中随机采样。这能在多样性和质量间取得较好平衡。温度采样在计算Softmax之前将logits除以一个温度参数T。T-0时接近贪婪解码T-∞时接近均匀随机采样T1为标准Softmax。通常T设置在0.7到1.0之间。def top_p_sampling(logits, top_p0.9, temperature1.0): logits logits / temperature probs F.softmax(logits, dim-1) sorted_probs, sorted_indices torch.sort(probs, descendingTrue) cumulative_probs torch.cumsum(sorted_probs, dim-1) # 移除累积概率超过top_p的部分 sorted_indices_to_remove cumulative_probs top_p # 确保至少保留一个token sorted_indices_to_remove[..., 1:] sorted_indices_to_remove[..., :-1].clone() sorted_indices_to_remove[..., 0] 0 indices_to_remove sorted_indices_to_remove.scatter(-1, sorted_indices, sorted_indices_to_remove) logits[indices_to_remove] -float(Inf) new_probs F.softmax(logits, dim-1) next_token_id torch.multinomial(new_probs, num_samples1) return next_token_id5.2 模型评估与性能分析评估语言模型不仅仅是看验证集上的困惑度。我们需要从多个维度审视模型。内在评估困惑度在干净的、未见过的验证集上计算是核心指标。生成质量人工评估给定相同的提示prompt让模型生成多段文本从流畅性、连贯性、相关性和创造性等方面进行人工评分。这是最可靠但成本最高的方法。外在评估下游任务微调将预训练好的模型作为基础在特定任务如文本分类、问答、摘要上进行微调观察其性能。这能检验模型的通用表征能力。零样本/少样本学习不进行微调直接通过设计提示词Prompt让模型完成任务。这是衡量大模型“智慧”的重要方式。模型分析工具注意力可视化将模型在生成特定词时的注意力权重热图绘制出来可以直观地看到模型在做决策时关注了输入序列的哪些部分。这对于调试和解释模型行为非常有帮助。激活值分布检查各层激活值的均值和标准差确保它们没有出现异常如全部为0或极大值这有助于诊断梯度问题。6. 常见问题排查与实战调优技巧6.1 训练过程中的典型问题与解决方案在从零训练LLM的过程中你几乎一定会遇到以下问题。这里提供一份“诊断手册”。问题现象可能原因排查步骤与解决方案损失值为NaN或无限大1. 学习率过高。2. 梯度爆炸。3. 数据中存在异常值如NaN的token。4. 层归一化中分母出现极小值。1.立即暂停训练检查第一个epoch或第一批数据后的损失。2. 大幅降低学习率如降至1e-5并启用梯度裁剪max_norm1.0。3. 检查数据预处理管道确保输入token ID在有效范围内。4. 在LayerNorm中加入一个极小的epsilon如1e-12。损失不下降卡在高位1. 学习率过低。2. 模型架构实现有误如残差连接缺失。3. 优化器状态未正确重置。4. 数据标签错误如输入和标签未对齐。1. 尝试增大学习率或使用学习率探测LR Finder寻找合适范围。2.逐层检查前向传播打印每个Transformer块输入输出的范数看是否有层“死掉”。3. 确保在每个epoch或每次重新训练前调用optimizer.zero_grad()。4. 检查数据加载器确保input_ids和labels的偏移关系正确。验证损失先降后升过拟合1. 模型容量过大训练数据不足。2. 训练时间过长。3. 缺乏正则化。1. 增加Dropout比率或使用权重衰减更强的AdamW。2. 实施早停策略当验证损失连续多个epoch不改善时停止训练。3. 尝试更多的数据增强对于文本可回译、随机遮盖等。4. 减小模型规模隐藏层维度、层数。训练速度极慢1. 未使用GPU。2. 批次大小过小GPU利用率低。3. 在数据加载上存在瓶颈如未启用多进程。4. 使用了低效的操作如Python循环。1. 使用model.to(‘cuda’)和data.to(‘cuda’)。2. 在内存允许下增大批次大小或使用梯度累积模拟大批次。3. 为DataLoader设置num_workers 0和pin_memoryTrue。4. 使用PyTorch原生向量化操作避免在张量上使用for循环。生成文本重复、无意义1. 模型训练不充分。2. 解码策略不当如温度过低。3. 训练数据质量差、噪声大。1. 继续训练直到验证困惑度稳定。2. 尝试核采样或提高温度参数增加随机性。3. 清洗训练数据移除无关符号、乱码等。6.2 高级调优与扩展技巧当你解决了基本问题模型能够正常训练后可以尝试以下进阶技巧来提升性能学习率调度策略除了线性预热可以尝试余弦退火它在训练后期将学习率缓慢降低到0有助于模型收敛到更优的局部最优点。或者使用带重启的余弦退火周期性突然增大学习率有助于模型跳出局部最优。权重初始化变体尝试GPT-2论文中提出的权重缩放初始化。对于残差块中的线性投影层如注意力输出投影和前馈网络第二层在初始化时额外乘以一个缩放因子1/sqrt(N)其中N是残差路径的数量。这有助于在模型极深时保持激活值的方差稳定。激活函数选择虽然GELU是主流但可以尝试Swish或SwiGLU前馈网络中使用的门控线性单元后者在一些最新模型中被证明更有效。注意力优化对于超长序列标准的自注意力计算复杂度是O(n²)内存消耗巨大。可以研究并实现FlashAttention等优化算法它能通过分块计算和重计算技术在保持精度的同时大幅降低内存占用并提升速度。混合精度训练使用torch.cuda.amp进行自动混合精度训练。这能显著减少GPU显存占用因为部分计算使用FP16并可能加快训练速度。但需注意对于非常小的模型如参数量100M混合精度带来的收益可能不明显甚至因精度损失影响收敛。从零构建一个大语言模型是一次深刻的学习之旅。它迫使你直面模型每一个组件的细节理解每一行代码背后的数学和工程考量。这个过程充满挑战从张量形状不匹配的报错到损失曲线诡异的波动每一个问题的解决都是经验的积累。当你最终看到自己亲手搭建的模型生成出第一句连贯的文本时那种成就感是无与伦比的。这份经历带给你的不仅是如何构建一个LLM更是一种对深度学习系统“知其然更知其所以然”的自信。你可以以此为起点去探索更复杂的模型架构如稀疏注意力、MoE专家混合或是尝试在不同领域的数据上进行预训练。这个项目提供的不仅仅是一份代码更是一把打开大模型奥秘之门的钥匙。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2616700.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…