从零构建Llama 3:深入理解大语言模型架构与训练全流程

news2026/5/9 21:50:21
1. 项目概述从零构建Llama 3意味着什么最近在开源社区里一个名为“Building-llama3-from-scratch”的项目引起了我的注意。乍一看标题很多人可能会觉得这又是一个“标题党”——毕竟Meta的Llama 3是一个拥有数百亿参数、训练成本高达数千万美元的巨型语言模型个人开发者怎么可能从零构建但当我深入研究这个项目后我发现它的价值远不止于字面意思。它不是一个试图复刻Llama 3全部700亿参数的疯狂计划而是一个极具教育意义的“教学项目”。这个项目的核心目标是引导开发者深入理解现代大语言模型LLM的架构精髓、训练流程和关键组件通过一个可管理的、小规模的“迷你Llama 3”实现来掌握构建此类模型的完整知识栈。这就像你想了解汽车是如何工作的最好的方法不是直接去造一辆特斯拉而是从组装一台结构清晰、原理相同的模型车开始。项目作者FareedKhan-dev显然深谙此道他为我们搭建了一个绝佳的学习脚手架。对于任何希望从“调包侠”进阶为真正理解模型底层原理的AI工程师或研究者来说这个项目都是一份宝藏。它覆盖了从数据预处理、分词器构建、模型架构设计特别是Llama 3采用的改进版Transformer、训练循环、损失函数到评估和推理的完整链路。你将亲手处理这些环节而不是仅仅调用model.fit()。通过这个过程你不仅能回答“Llama 3为什么强”更能回答“它是如何被构建出来的”以及“如果我来设计关键点在哪里”。接下来我将拆解这个项目的核心模块分享从环境搭建到模型跑通的完整实操经验与避坑指南。2. 核心架构与设计思路拆解2.1 目标定义与范围界定我们到底在“构建”什么首先必须明确完全复现Llama 3是不现实的。因此项目的第一个智慧在于合理的范围界定。它聚焦于Llama 3架构的核心创新点并在一个极小的规模上例如千万或亿级参数实现其关键设计。这包括改进的Transformer架构Llama 3采用了更高效的标准化方案如RMSNorm和激活函数如SwiGLU并可能使用了旋转位置编码RoPE的变体。项目需要实现这些组件。分词器TokenizerLlama 3使用了基于字节对编码BPE的Tokenizer词汇表大小约为12.8万。项目中我们需要实现或集成一个功能相似的、小词汇表的BPE分词器。训练目标标准的自回归语言建模即预测下一个token。数据流与训练循环包括数据加载、批处理、前向传播、损失计算、反向传播和优化器更新。项目的输出不是一个能与原版Llama 3媲美的模型而是一个架构正确、训练流程完整、可以学习到文本生成能力的小型模型以及开发者一整套的构建经验。2.2 技术栈选型为什么是PyTorch在深度学习框架的选择上PyTorch几乎是这类教育性项目的唯一选择。原因很直接动态图机制和直观的调试体验。当我们从零构建时需要频繁地检查张量形状、中间变量值甚至需要手动实现某些算子的反向传播用于理解。PyTorch的即时执行eager execution模式让这一切变得轻而易举。你可以像写普通Python代码一样写模型在任何地方插入print语句或使用调试器。此外围绕PyTorch的生态系统如torch.nn模块提供了清晰的基础组件如Linear, LayerNorm我们可以继承并修改它们而不是从头编写CUDA内核。这让我们能将精力集中在架构设计而非底层性能优化上。当然为了追求极致的教学清晰度项目中某些部分如注意力机制可能会选择用纯Python/NumPy实现一个简化版然后再用PyTorch实现高效版本进行对比学习。2.3 整体工作流设计项目的实施遵循一个清晰的流水线这也是任何LLM项目的基础骨架原始文本数据 - 数据清洗与格式化 - 分词与词汇表构建 - 数据集封装 - 模型架构定义 - 训练循环 - 验证与评估 - 模型保存与推理这个流程中的每一步都包含大量细节。例如“数据清洗”对于小规模实验我们可能使用维基百科或某个开源书籍数据集需要处理HTML标签、异常字符、规范化空格等。“分词”则涉及BPE算法的实现包括合并规则、词汇表构建和子词切分。这个项目的高明之处在于它要求你不是直接使用Hugging Face的AutoTokenizer而是理解其背后的原理并实现一个简化版本。3. 关键模块深度解析与实现要点3.1 分词器从BPE算法到子词切分分词是LLM处理文本的第一步也是理解模型输入输出的关键。Llama 3使用的是一种BPE分词器。BPE核心原理BPE是一种数据压缩算法通过迭代地合并语料中最频繁共现的字节对来构建词汇表。例如“h”和“ug”经常在“hug”中出现它们就可能被合并成一个新词元“hug”。在项目中实现一个简化BPE的步骤基础准备将训练语料中的所有文本转换成UTF-8字节序列。将每个字节视为一个初始词元。统计频率遍历所有文本统计所有相邻词元对出现的频率。迭代合并在每一轮中找到频率最高的词元对如(“h”, “ug”)将它们合并成一个新的词元“hug”并在词汇表中添加这个新词元。更新所有文本将出现该词元对的地方替换为新词元。设定词汇表大小重复步骤3直到词汇表大小达到预设值例如4096远小于Llama 3的12.8万但足够教学使用。编码与解码实现encode函数将字符串根据最终词汇表切分成词元ID序列实现decode函数将词元ID序列还原回字符串。注意在实际操作中直接对字节操作效率较低。一个常见的教学优化是先基于字符或常见子词初始化一个基础词汇表。此外要特别注意处理未知字符和空格通常将空格表示为特殊符号如_。实操心得自己实现一遍BPE后你会对Hugging Face的tokenizer产生的那些“奇怪”的子词如“ing”、“ation”、“”有全新的认识。你会明白大词汇表如何平衡词表大小与序列长度以及这对模型效率的影响。在项目中建议将分词器实现为一个独立的类并保存训练好的词表文件方便模型训练时加载。3.2 模型架构拆解Llama 3的Transformer块Llama 3的Transformer基于经典的Decoder-only架构但做了多项改进。我们的“迷你版”需要抓住以下核心3.2.1 注意力机制高效的因果自注意力这是Transformer的灵魂。我们需要实现带掩码的多头自注意力。因果掩码确保在预测位置i时只能看到位置1到i-1的信息这是语言模型的核心约束。掩码是一个上三角矩阵对角线及以上为负无穷-inf对角线以下为0。缩放点积注意力计算Query, Key, Value之间的点积除以Key维度的平方根进行缩放然后应用Softmax和掩码。多头注意力将Q、K、V投影到多个子空间头在每个头上并行计算注意力然后将结果拼接并投影回原维度。代码要点在PyTorch中可以使用torch.nn.Linear定义投影层使用torch.bmm进行批矩阵乘法。特别注意张量的形状变换(batch, seq_len, dim)- 重塑为(batch, num_heads, seq_len, head_dim)以便并行计算。3.2.2 前馈网络SwiGLU激活函数Llama 3没有使用标准的ReLU或GELU而是采用了SwiGLU它是GLUGated Linear Unit的一种变体表现更好。 公式可以简化为FFN(x) (Swish(xW1) ⊗ xV) W2其中⊗是逐元素乘法Swish是x * sigmoid(x)。 与标准FFNReLU(xW1) W2相比SwiGLU多了一个门控支路xV增加了模型的表达能力。实现提示在项目中你可以先实现一个标准的双层线性层FFN然后将其修改为SwiGLU。这能让你直观对比两种结构的差异。3.2.3 标准化RMSNormLlama 3用RMSNorm替代了传统的LayerNorm。LayerNorm对输入进行中心化减均值和缩放除以标准差。RMSNorm发现中心化不是必须的仅进行缩放即可公式为RMSNorm(x) x * g / sqrt(mean(x^2) eps)其中g是可学习的缩放参数。这减少了计算量且在一些任务上表现更好。3.2.4 位置编码旋转位置编码RoPE这是Llama系列模型的标志性技术。与绝对或相对位置编码不同RoPE将位置信息编码为查询和键向量的旋转矩阵。它在外推性处理比训练更长的序列方面表现出色。 实现RoPE需要一些复数运算的知识。简单来说对于位置m的向量x通过一个旋转矩阵R_m对其进行旋转x_m R_m * x。在注意力计算中Q和K都使用了带位置信息的旋转版本这样它们的点积就会自动包含相对位置信息。重要提示RoPE的实现是项目中的一个难点。建议先理解其数学原理然后寻找一个经过验证的、清晰的PyTorch实现作为参考。不要试图从零推导其代码重点是理解它如何被集成到注意力计算中。3.3 训练循环损失、优化与梯度累积模型架构搭好后训练是让模型“学会”的关键。损失函数对于自回归语言模型我们使用交叉熵损失。具体来说对于输入序列[token_1, token_2, ..., token_T]我们将它偏移一位作为标签输入是[token_1, ..., token_{T-1}]标签是[token_2, ..., token_T]。模型的任务是在每一步都基于之前的token预测下一个token。优化器AdamW优化器是当前的标准选择。它与Adam类似但采用了正确的权重衰减方式解耦权重衰减能带来更好的泛化性能。学习率需要设置一个热身warmup阶段然后按余弦或线性计划衰减。梯度累积由于我们构建的是“迷你”模型参数量小可能可以在单张消费级GPU如RTX 4090上训练。但如果想稍微扩大模型规模或批次大小显存可能不足。这时就需要梯度累积。其原理是将一个大批次如batch_size32分成多个小批次如micro_batch8连续计算但不立即更新参数而是累积多个小批次的梯度。在累积了足够步数accum_steps4后用累积梯度的平均值进行一次参数更新。这相当于用更小的显存开销模拟了更大的批次训练效果。训练循环伪代码逻辑model.train() optimizer.zero_grad() total_loss 0 for step, batch in enumerate(data_loader): inputs, labels batch # labels是inputs向右偏移一位 logits model(inputs) # 输出形状: (batch, seq_len, vocab_size) # 计算损失时通常忽略序列开头的填充部分或特定token loss cross_entropy_loss(logits.view(-1, vocab_size), labels.view(-1)) loss loss / accum_steps # 损失缩放 loss.backward() # 梯度累积到模型参数中 if (step 1) % accum_steps 0: optimizer.step() # 用累积的梯度更新参数 optimizer.zero_grad() # 清空梯度准备下一次累积 scheduler.step() # 更新学习率4. 从零到一的完整实操过程4.1 环境准备与依赖安装建议使用Python 3.10和PyTorch 2.0。创建一个干净的虚拟环境是好的开始。# 创建并激活虚拟环境以conda为例 conda create -n llama3-scratch python3.10 conda activate llama3-scratch # 安装核心依赖 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 # 根据你的CUDA版本选择 pip install transformers datasets tqdm numpy matplotlib # transformers和datasets不是必须的但可以方便我们获取示例数据和对比验证项目目录结构可以这样组织building-llama3-from-scratch/ ├── data/ │ ├── raw/ # 存放原始文本数据 │ └── processed/ # 存放处理后的数据 ├── src/ │ ├── tokenizer.py # BPE分词器实现 │ ├── model.py # 模型架构定义 (RMSNorm, RoPE, SwiGLU, TransformerBlock) │ ├── train.py # 训练循环主脚本 │ └── utils.py # 辅助函数数据加载、日志等 ├── configs/ # 配置文件模型超参数、训练参数 ├── outputs/ # 保存训练好的模型、词表、日志 └── requirements.txt4.2 数据预处理与分词器训练假设我们使用datasets库加载一个小型数据集如wikitext-2。from datasets import load_dataset dataset load_dataset(wikitext, wikitext-2-raw-v1) # 将训练集的所有文本拼接成一个长字符串 text \n.join([ex for ex in dataset[train][text] if ex.strip()]) # 使用我们实现的BPE分词器训练词表 from src.tokenizer import BasicBPETokenizer tokenizer BasicBPETokenizer(vocab_size4096) tokenizer.train(text) tokenizer.save_vocab(outputs/vocab.json) # 测试编码解码 ids tokenizer.encode(Hello, world!) print(ids) print(tokenizer.decode(ids))4.3 构建数据集与数据加载器我们需要将文本数据转换成模型可用的、批量的(token_id, label)对。import torch from torch.utils.data import Dataset, DataLoader class TextDataset(Dataset): def __init__(self, text, tokenizer, block_size): self.tokenizer tokenizer self.block_size block_size # 模型能处理的最大序列长度如256 data tokenizer.encode(text) self.data torch.tensor(data, dtypetorch.long) def __len__(self): return len(self.data) - self.block_size def __getitem__(self, idx): # 取一段长度为block_size1的序列前block_size个作为输入后block_size个作为标签偏移一位 chunk self.data[idx: idx self.block_size 1] x chunk[:-1] y chunk[1:] return x, y # 创建数据集和数据加载器 train_dataset TextDataset(train_text, tokenizer, block_size256) train_loader DataLoader(train_dataset, batch_size32, shuffleTrue)4.4 模型组装与参数初始化在model.py中我们按照之前解析的组件逐步构建模型。import torch.nn as nn import torch.nn.functional as F import math class RMSNorm(nn.Module): def __init__(self, dim, eps1e-8): super().__init__() self.eps eps self.weight nn.Parameter(torch.ones(dim)) def forward(self, x): # x: (batch, seq_len, dim) norm x.pow(2).mean(-1, keepdimTrue) # 计算均方根 x_normed x * torch.rsqrt(norm self.eps) # 除以RMS return self.weight * x_normed class SwiGLUFFN(nn.Module): def __init__(self, dim, hidden_dim): super().__init__() self.w1 nn.Linear(dim, hidden_dim, biasFalse) self.v nn.Linear(dim, hidden_dim, biasFalse) # 门控支路 self.w2 nn.Linear(hidden_dim, dim, biasFalse) def forward(self, x): # Swish x * sigmoid(x) return self.w2(F.silu(self.w1(x)) * self.v(x)) # 注意这里省略了RoPEAttention和TransformerBlock的完整代码它们结构较复杂。 # 你需要参考开源实现如Hugging Face的Llama实现或干净的PyTorch复现来整合RoPE。 class MiniLlama3(nn.Module): def __init__(self, vocab_size, dim, n_layers, n_heads, max_seq_len): super().__init__() self.token_embedding nn.Embedding(vocab_size, dim) # ... 初始化Transformer层 ... self.output nn.Linear(dim, vocab_size, biasFalse) # 将词嵌入权重与输出层权重绑定可以大幅减少参数量并稳定训练 self.output.weight self.token_embedding.weight def forward(self, idx): x self.token_embedding(idx) # ... 经过所有Transformer层 ... logits self.output(x) return logits参数初始化至关重要。对于Linear层常用nn.init.normal_(layer.weight, mean0.0, std0.02)。对于Embedding层也类似。正确的初始化能避免训练初期的梯度爆炸或消失。4.5 启动训练与监控在train.py中整合所有部分。import torch.optim as optim from torch.optim.lr_scheduler import CosineAnnealingLR, LinearLR model MiniLlama3(vocab_size4096, dim512, n_layers8, n_heads8, max_seq_len256).cuda() optimizer optim.AdamW(model.parameters(), lr6e-4, weight_decay0.1) # 学习率调度先线性热身再余弦衰减 warmup_steps 1000 total_steps 100000 scheduler optim.lr_scheduler.SequentialLR( optimizer, schedulers[ LinearLR(optimizer, start_factor0.01, total_iterswarmup_steps), CosineAnnealingLR(optimizer, T_maxtotal_steps - warmup_steps) ], milestones[warmup_steps] ) for epoch in range(num_epochs): for batch_idx, (inputs, labels) in enumerate(train_loader): inputs, labels inputs.cuda(), labels.cuda() logits model(inputs) loss F.cross_entropy(logits.view(-1, logits.size(-1)), labels.view(-1)) loss.backward() # 梯度裁剪防止梯度爆炸 torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm1.0) optimizer.step() scheduler.step() optimizer.zero_grad() if batch_idx % 100 0: print(fEpoch {epoch}, Step {batch_idx}, Loss: {loss.item():.4f}, LR: {scheduler.get_last_lr()[0]:.6f})训练这样一个千万参数级别的小模型在单卡RTX 4090上在Wikitext-2这样的小数据集上可能几小时到一天就能看到损失明显下降并开始生成一些看似连贯的文本。5. 常见问题、调试技巧与效果评估5.1 训练过程中的典型问题与排查损失为NaN或无限大可能原因1不正确的初始化。检查所有Linear和Embedding层的初始化标准差0.02是一个常用值。对于深层网络可能需要更小的初始化。可能原因2学习率过高。尝试将学习率降低一个数量级如从6e-4降到1e-4。可能原因3数据中存在异常值或分词错误。检查分词后的ID序列确保都在词汇表范围内。在计算损失时可以忽略填充符如ID0对应的位置。排查工具在损失计算前插入检查点打印logits的最大最小值以及loss计算前的值。损失不下降或下降非常缓慢可能原因1模型容量太小或序列长度太短。尝试增加模型维度dim、层数n_layers或注意力头数n_heads。同时检查block_size是否过小模型无法看到足够的上下文。可能原因2优化器或调度器设置问题。确认AdamW的betas参数是默认的(0.9, 0.999)eps是1e-8。检查学习率调度器是否正常工作在训练初期学习率是否在逐渐增加热身阶段。可能原因3梯度消失/爆炸。虽然Transformer相对RNN更不易出现此问题但仍需检查。使用torch.nn.utils.clip_grad_norm_进行梯度裁剪通常设max_norm1.0。也可以在每个Transformer块后打印各层的梯度范数。生成文本全是乱码或重复单词这是训练早期非常正常的现象。模型首先学习的是语言的无结构统计特征。继续训练。如果训练后期仍如此可能是采样策略问题。在推理时如果你总是选择概率最高的词贪婪搜索容易导致重复。尝试使用核采样top-p sampling或Top-k采样引入随机性。def top_p_sampling(logits, p0.9): sorted_logits, sorted_indices torch.sort(logits, descendingTrue) cumulative_probs torch.cumsum(F.softmax(sorted_logits, dim-1), dim-1) # 移除累积概率大于p的token sorted_indices_to_remove cumulative_probs p # 确保至少有一个token sorted_indices_to_remove[..., 1:] sorted_indices_to_remove[..., :-1].clone() sorted_indices_to_remove[..., 0] 0 indices_to_remove sorted_indices[sorted_indices_to_remove] logits[indices_to_remove] -float(Inf) probs F.softmax(logits, dim-1) next_token torch.multinomial(probs, num_samples1) return next_token5.2 模型评估与生成示例训练一段时间后我们需要评估模型。计算验证集损失在一个未参与训练的文本集上用同样的方式计算损失。验证损失低于训练损失是正常的因为dropout等正则化在评估时被关闭。关注验证损失是否随训练持续下降。生成文本编写一个简单的生成函数。def generate(model, tokenizer, prompt, max_new_tokens50, temperature0.8, top_p0.9): model.eval() tokens tokenizer.encode(prompt) tokens torch.tensor(tokens, dtypetorch.long).unsqueeze(0).cuda() for _ in range(max_new_tokens): # 输入当前序列获取下一个token的logits logits model(tokens[:, -model.max_seq_len:]) # 只取最后max_seq_len个token logits logits[:, -1, :] / temperature # 取最后一个位置的logits并应用温度 next_token top_p_sampling(logits, ptop_p) tokens torch.cat([tokens, next_token], dim1) output tokenizer.decode(tokens[0].tolist()) return output尝试不同的prompt观察生成结果。初期可能只是看似合理的单词组合后期应能出现简单的语法结构和短句。5.3 性能优化与扩展思考当你的小模型成功运行后可以考虑以下方向深化理解扩大规模逐步增加dim、n_layers和vocab_size观察模型表现的变化。你会亲身感受到“缩放定律”的威力——更大的模型在相同数据上能获得更低的损失。实现更高效的自注意力实现分组查询注意力GQA或多头查询注意力MQA这是Llama 3等现代模型用于加速推理的关键技术。其核心是让多个注意力头共享同一组Key和Value投影减少计算和内存开销。尝试不同的数据集从Wikitext切换到代码数据集如GitHub爬取的数据或对话数据集观察模型学习到的不同“语言”模式。分析中间层提取并可视化注意力权重看看模型在生成时“关注”了输入序列的哪些部分。这能直观理解自注意力机制的工作原理。通过这个“Building-llama3-from-scratch”项目你获得的不再是黑盒API的使用经验而是对大型语言模型生命周期的深刻实践认知。从数据到分词从数学原理到代码实现从损失曲线到生成文本每一个环节你都亲手触摸过。这份经验将成为你理解未来更复杂AI模型最坚实的基石。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2598759.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…