从零构建专属大语言模型:Self-LLM开源项目全流程实践指南

news2026/5/17 5:55:28
1. 项目概述与核心价值最近在开源社区里一个名为datawhalechina/self-llm的项目引起了我的注意。乍一看这像是一个关于大语言模型LLM的仓库但“self”这个前缀又让人浮想联翩。经过一段时间的深入研究和实践我发现它远不止是一个简单的模型仓库。简单来说self-llm是一个旨在帮助开发者和研究者“从零开始”构建、理解和微调自己专属大语言模型的系统性开源项目。它不是一个现成的、拿来即用的模型而是一套完整的“方法论”和“工具箱”涵盖了从数据准备、模型架构选择、预训练、指令微调SFT到人类反馈强化学习RLHF的全链路流程。这个项目的核心价值在于“授人以渔”。当前虽然像ChatGPT、Claude这样的闭源模型能力强大但其内部运作机制、训练细节对大多数人而言仍是黑盒。而开源社区虽有LLaMA、Falcon等优秀模型但如何基于它们进行有效的领域适配、如何理解其训练过程中的每一个关键决策对于个人和小团队来说门槛依然很高。self-llm正是试图降低这个门槛。它通过结构化的代码、清晰的文档和可复现的脚本将构建一个LLM的宏大工程拆解成一个个可执行、可观察的步骤。对于想深入LLM技术内核的工程师、希望为自己的业务定制专属AI助手的研究者甚至是渴望系统性学习大模型技术的学生这个项目都提供了一个绝佳的实践平台。它让你不仅能“用”模型更能“造”模型并在“造”的过程中深刻理解数据、算法、算力是如何协同作用最终孕育出智能的。2. 项目整体架构与设计思路拆解2.1 核心设计哲学透明化与可复现性self-llm项目的首要设计原则是“透明化”。与许多只提供最终模型权重的项目不同它致力于展示模型诞生的完整“生命周期”。这意味着从你下载第一行代码开始到最终得到一个能回答你领域问题的模型中间的每一步都是可见、可干预、可学习的。这种设计直接回应了当前大模型领域的一个痛点技术壁垒高过程不透明。项目通过模块化的代码结构将数据清洗、分词器训练、模型初始化、训练循环、评估指标等环节清晰地分离每个模块都有明确的输入输出和配置接口。其次是极强的“可复现性”。项目不仅提供了代码还详细说明了每一步所需的计算资源如GPU内存、预期的中间结果甚至包括了一些常见错误的排查方法。它假设用户是从一个相对干净的环境开始引导用户一步步搭建起整个流水线。这种“手把手”式的设计极大地降低了入门的心智负担。例如在数据预处理阶段项目不会仅仅说“请清洗数据”而是会提供具体的脚本展示如何过滤低质量文本、如何进行去重、如何划分训练集和验证集并解释每一步操作对最终模型性能的潜在影响。2.2 技术栈选型与模块化架构深入代码库可以看到self-llm在技术栈上做出了明确且务实的选择。它主要基于PyTorch这一深度学习框架并深度集成了Hugging Face Transformers和Datasets库。这个选择非常明智PyTorch提供了灵活的模型定义和训练控制Transformers库则提供了大量经过验证的模型架构如GPT-2、LLaMA结构和高效的训练工具如TrainerDatasets库简化了大规模数据的加载和处理流程。这种组合保证了项目既具有强大的底层能力又能享受开源生态带来的便利。项目的架构是高度模块化的主要可以分为以下几个核心部分数据模块 (data/): 负责一切与数据相关的工作。包括原始文本的收集与清洗、分词器Tokenizer的训练、数据集的构建与格式化例如将普通文本转换为模型可接受的“指令-输出”对格式。这里的一个关键设计是支持自定义分词器允许用户根据自己领域的数据特性如包含大量专业术语、公式或代码训练专属的分词器这能显著提升模型对领域文本的编码效率。模型模块 (model/): 定义了模型的核心架构。项目通常会提供几个经典的、参数量适中的Transformer解码器架构作为起点例如一个小型化的GPT或LLaMA结构。代码会清晰地展示注意力机制、前馈网络、层归一化等核心组件的实现。更重要的是它提供了从零开始初始化权重或从Hugging Face加载预训练权重进行继续训练的接口。训练模块 (train/): 这是项目的引擎。它包含了完整的训练循环逻辑支持多种训练范式预训练 (Pre-training): 在大规模无标注文本上进行自回归语言建模任务让模型学会语言的统计规律和世界知识。指令微调 (Supervised Fine-Tuning, SFT): 在高质量的指令-回答数据对上训练教会模型理解并遵循人类指令。人类反馈强化学习 (RLHF): 这是一个更高级的阶段项目会提供简化版的实现展示如何通过奖励模型Reward Model来进一步对齐模型的输出与人类偏好。这部分通常需要更复杂的数据和更多的计算资源。评估与部署模块 (eval/,scripts/): 训练出的模型需要被衡量和测试。项目会集成一些常见的评估基准如针对常识推理、代码生成任务的评估集和脚本。同时也会提供将训练好的模型转换为可部署格式如使用Transformers库直接加载或转换为ONNX格式的示例。注意对于个人开发者或小团队直接从零开始预训练一个参数量巨大的模型如70亿参数是不现实的。self-llm的常见实践路径是“站在巨人的肩膀上”使用一个开源的、基础能力优秀的预训练模型如Chinese-LLaMA、Qwen-7B作为起点然后利用本项目提供的SFT或RLHF流程使用自己的领域数据进行微调。项目设计充分考虑到了这种“预训练-微调”范式使其成为最实用、最经济的切入方式。3. 核心流程实操从数据到领域专家模型3.1 数据准备质量重于一切模型的能力上限很大程度上由数据决定。self-llm项目在数据准备环节投入了大量笔墨。第一步永远是数据收集与清洗。你需要为自己的目标领域准备文本数据。例如如果你想做一个法律咨询助手就需要收集法律条文、案例判决书、法律学术论文等文本。清洗过程包括去重删除完全相同的重复段落避免模型对某些内容过拟合。过滤基于规则或简单模型过滤掉广告、乱码、无关语言如果你的目标是中文模型等低质量文本。格式化将数据转换为纯文本格式每行一个文档或一个段落。接下来是分词器训练。虽然可以直接使用现成的分词器如GPT-2的但为了更好处理领域词汇训练一个专属分词器是值得的。项目通常会集成Hugging Face的tokenizers库你只需要准备清洗后的纯文本文件运行一个脚本它就会基于Byte-Pair Encoding (BPE) 或WordPiece算法生成一个新的分词器。这个过程的关键参数是词汇表大小vocab_size通常设置在3万到5万之间。词汇表太大会导致模型参数增加、训练变慢太小则分词粒度太粗影响模型理解。# 示例使用tokenizers库训练一个BPE分词器概念性代码 from tokenizers import Tokenizer, models, trainers, pre_tokenizers, decoders # 初始化一个BPE模型 tokenizer Tokenizer(models.BPE()) # 设置预分词器按空格和标点分割 tokenizer.pre_tokenizer pre_tokenizers.ByteLevel(add_prefix_spaceTrue) # 初始化训练器 trainer trainers.BpeTrainer(vocab_size40000, special_tokens[[PAD], [UNK], [CLS], [SEP], [MASK]]) # 用你的文本文件训练 tokenizer.train(files[path/to/your/corpus.txt], trainertrainer) # 保存分词器 tokenizer.save(my_domain_tokenizer.json)最后是数据集构建。对于SFT阶段你需要将数据组织成“指令-输入-输出”的格式。项目会提供一个模板你需要将自己的问答对、任务描述填入。例如[ { instruction: 请总结以下法律条文的核心内容。, input: 《中华人民共和国合同法》第一百零七条当事人一方不履行合同义务或者履行合同义务不符合约定的应当承担继续履行、采取补救措施或者赔偿损失等违约责任。, output: 该条文规定了违约责任的基本形式当一方违约时需承担继续履行合同、采取补救措施或赔偿损失的责任。 } ]3.2 模型选择与初始化小步快跑迭代验证对于大多数应用场景不建议从随机初始化开始训练一个大型模型。self-llm项目更鼓励采用“预训练模型 微调”的策略。选择基座模型根据你的任务和资源选择一个合适的开源预训练模型。例如追求效果与资源平衡Qwen-7B、ChatGLM3-6B、InternLM-7B都是优秀的中文基座模型。资源极其有限可以考虑更小的模型如Qwen-1.8B或使用参数高效微调技术PEFT。领域特殊性如果有某个垂直领域如医学、金融的预训练模型优先选择。模型加载与配置使用Transformers库加载模型和分词器。self-llm的代码会展示如何正确配置模型参数如注意力头数、层数、隐藏层维度等以确保与预训练权重匹配。同时它会提示你根据GPU内存情况启用梯度检查点Gradient Checkpointing或混合精度训练FP16/BF16来节省显存。参数高效微调PEFT集成这是项目的亮点之一。为了在有限资源下微调大模型项目通常会集成LoRALow-Rank Adaptation或QLoRA量化版的LoRA技术。你不需要更新模型的所有参数只需要为模型注入一些小的、低秩的适配器模块并只训练这些新增的参数。这能将训练所需的显存降低一个数量级。# 示例使用PEFT库应用LoRA概念性代码 from peft import LoraConfig, get_peft_model from transformers import AutoModelForCausalLM model AutoModelForCausalLM.from_pretrained(Qwen/Qwen-7B) # 配置LoRA仅对注意力层的q, v投影矩阵进行适配 lora_config LoraConfig( r8, # LoRA的秩 lora_alpha32, target_modules[q_proj, v_proj], lora_dropout0.1, biasnone, task_typeCAUSAL_LM ) model get_peft_model(model, lora_config) model.print_trainable_parameters() # 此时可训练参数可能仅为原模型的0.1%3.3 训练循环与超参数调优耐心与观察训练是核心环节。self-llm提供的训练脚本通常基于Transformers的Trainer类它封装了标准的训练循环、评估、日志记录和模型保存。关键超参数解析学习率 (Learning Rate)这是最重要的参数。对于全参数微调通常从1e-5到5e-5开始对于LoRA微调可以稍高一些如2e-4到5e-4。项目会建议使用学习率调度器如余弦退火Cosine Annealing或带热身的线性调度。批次大小 (Batch Size)在GPU内存允许的情况下尽可能使用大的批次大小。如果内存不足可以累积梯度Gradient Accumulation模拟大批次的效果。例如实际批次大小为4累积步数为8则有效批次大小为32。训练轮数 (Epochs)对于SFT通常不需要太多轮数1-3个epoch往往足够防止在小型指令数据集上过拟合。需要密切监控验证集损失。序列长度 (Max Length)根据你的数据中最长文本的长度设置并考虑GPU内存。通常设置为512或1024。实操心得一定要使用WB或TensorBoard可视化训练损失和评估指标的变化曲线至关重要。它能帮你判断模型是否在正常学习、是否过拟合。self-llm的脚本通常已集成这些日志工具。保存检查点 (Checkpoint)设置每一定步数或每个epoch结束后保存模型检查点。这样如果训练中途出错或你想回溯到某个性能更好的模型状态都有备无患。早停 (Early Stopping)如果验证集损失在连续多个评估周期内不再下降甚至开始上升就应该果断停止训练这是过拟合的典型信号。3.4 指令微调SFT实战教会模型“听话”SFT阶段是将一个“知识渊博但不懂规矩”的预训练模型变成“有问必答的助手”的关键。self-llm会提供构建SFT数据集的详细指南和脚本。数据格式与对话模板不同的基座模型可能有不同的对话模板。例如ChatGLM3使用[gMASK]和sop标记而LLaMA系列通常使用[INST]、SYS等标签。你必须严格按照基座模型要求的格式组织你的指令数据否则微调效果会大打折扣。项目代码通常会包含一个formatting.py之类的脚本专门处理不同模型的对话模板。损失函数在SFT中通常只计算模型对“答案部分”的预测损失而忽略“指令部分”和“系统提示”部分的损失。这可以通过构造一个“损失掩码Loss Mask”来实现。Trainer和大多数框架已经内置了对这种任务的支持。一个完整的SFT训练命令可能看起来像这样# 这是一个示例命令具体参数需根据项目脚本调整 python train_sft.py \ --model_name_or_path ./base_model \ # 基座模型路径 --train_file ./data/sft_train.jsonl \ # SFT训练数据 --validation_file ./data/sft_val.jsonl \ --output_dir ./sft_checkpoints \ --per_device_train_batch_size 4 \ --gradient_accumulation_steps 8 \ --learning_rate 2e-5 \ --num_train_epochs 3 \ --lr_scheduler_type cosine \ --warmup_ratio 0.03 \ --logging_steps 10 \ --save_steps 500 \ --evaluation_strategy steps \ --eval_steps 500 \ --fp16 \ # 使用混合精度训练 --report_to wandb # 日志记录到WB训练结束后使用项目提供的评估脚本或自己编写一些测试问题直观地感受模型在指令遵循、回答质量上的变化。4. 高级主题与效果优化策略4.1 人类反馈强化学习RLHF浅析与实践考量self-llm项目可能会涉及RLHF的简化实现这是让模型输出更符合人类偏好的高级技术。RLHF通常分为三步监督微调SFT如上所述得到初始模型。奖励模型Reward Model, RM训练收集人类对多个模型回复的偏好排序数据如A回复优于B回复训练一个能打分的小模型。强化学习优化使用PPO等算法以RM的打分为奖励信号优化SFT模型使其生成能获得高分的回复。实操注意事项数据门槛高RLHF需要大量高质量的人类偏好数据这通常是最大的瓶颈。对于个人项目可以考虑使用已有的开源偏好数据集或通过少量样本和规则合成数据来尝试。实现复杂不稳定RLHF的训练过程比SFT复杂得多超参数敏感容易不稳定如奖励分数崩溃。self-llm如果包含这部分其实现更可能是用于教学和演示帮助你理解流程。在生产中应用需要更精细的工程控制。替代方案对于很多场景高质量的SFT数据加上一些后处理规则如拒绝回答不确定的问题、输出格式控制已经能取得很好的效果。可以优先把精力放在SFT数据的构建上。4.2 模型评估不仅仅是损失函数训练完成后如何知道模型好不好self-llm会引导你超越简单的验证集损失进行多维度评估。内在评估Intrinsic Evaluation困惑度Perplexity, PPL在保留的测试文本上计算衡量模型对语言本身的建模能力。PPL越低越好。这是一个基础但重要的指标。特定任务准确率如果你的数据包含分类、问答等任务可以计算准确率、F1值等。外在评估Extrinsic Evaluation人工评测这是黄金标准。准备一组覆盖不同难度和类型的测试问题让真人或你自己从有用性Helpfulness、真实性Truthfulness、无害性Harmlessness等维度对模型回复进行评分如1-5分。基准测试集在开源基准上测试如C-Eval中文知识评估、MMLU英文多任务理解、HumanEval代码生成。这有助于横向对比不同微调策略的效果。定性分析观察模型对边界情况、对抗性问题的处理。检查其输出是否存在事实性错误、逻辑矛盾或有害内容。测试其指令遵循的鲁棒性例如变换指令的表述方式。项目应提供脚本或指南帮助你自动化部分评估流程并记录结果。4.3 部署与服务化让模型跑起来训练好的模型最终需要被使用。self-llm项目通常会给出几种部署方案使用Transformers库直接推理这是最简单的方式。加载模型和分词器编写一个简单的生成函数。from transformers import AutoModelForCausalLM, AutoTokenizer import torch model_path ./sft_final_model model AutoModelForCausalLM.from_pretrained(model_path, torch_dtypetorch.float16, device_mapauto) tokenizer AutoTokenizer.from_pretrained(model_path) def generate_response(instruction): messages [{role: user, content: instruction}] text tokenizer.apply_chat_template(messages, tokenizeFalse, add_generation_promptTrue) inputs tokenizer(text, return_tensorspt).to(model.device) with torch.no_grad(): outputs model.generate(**inputs, max_new_tokens512, temperature0.7) response tokenizer.decode(outputs[0][len(inputs.input_ids[0]):], skip_special_tokensTrue) return response使用vLLM或TGI进行高性能推理如果追求高吞吐、低延迟特别是需要服务多个并发请求时推荐使用vLLM或Text Generation Inference (TGI) 等推理优化框架。它们通过PagedAttention等技术极大地优化了显存利用和生成速度。self-llm可能会提供将模型转换为相应格式并启动服务的示例脚本。量化与轻量化为了在消费级GPU甚至CPU上运行大模型可以对模型进行量化Quantization。例如使用GPTQ或AWQ进行4比特或8比特权重量化能大幅减少模型体积和推理所需内存且精度损失可控。项目可能会集成auto-gptq或bitsandbytes库来演示这一过程。5. 常见问题、避坑指南与资源建议5.1 训练过程中的典型问题与排查问题现象可能原因排查与解决思路Loss不下降或为NaN学习率过高数据中存在异常值如NaN字符梯度爆炸。1. 大幅降低学习率如降至1e-6试跑几步。2. 检查数据清洗是否彻底过滤掉非文本字符。3. 启用梯度裁剪gradient_clipping。4. 使用更稳定的优化器如AdamW。验证集Loss先降后升过拟合。1. 增加正则化如提高Dropout率。2. 收集更多训练数据。3. 减少训练轮数Epochs。4. 启用早停Early Stopping。GPU显存溢出OOM批次大小太大序列长度太长模型太大。1. 减小per_device_train_batch_size。2. 增大gradient_accumulation_steps以保持有效批次大小。3. 缩短max_length。4. 启用梯度检查点gradient_checkpointingTrue。5. 使用参数高效微调PEFT/LoRA。6. 使用量化训练如QLoRA。模型输出乱码或重复训练不充分温度Temperature参数过低重复惩罚Repetition Penalty未设置。1. 检查训练数据质量和数量确保训练充分。2. 在推理时提高temperature如0.8-1.0以增加随机性。3. 设置repetition_penalty如1.1-1.2来抑制重复。SFT后模型“忘记”基础知识灾难性遗忘。微调数据过于狭窄且学习率/步数不合适。1. 在SFT数据中混合一部分通用的、高质量的预训练数据如维基百科文章。2. 使用更小的学习率进行微调。3. 尝试仅微调部分层如最后几层或使用LoRA。5.2 数据与模型选择的经验之谈数据质量是王道1000条精心构造的高质量指令数据远胜于10万条爬取的、噪声大的数据。在构造SFT数据时答案的准确性、无害性和完整性至关重要。可以多人交叉校验。领域适配分词器先行如果你的领域有大量特有词汇如医学名词、编程API花时间训练一个领域分词器是性价比极高的投资。它能提升模型处理专业文本的效率和效果。基座模型选择不要盲目追求参数量。7B模型在正确微调下在垂直领域的表现可能接近甚至超过未微调的70B通用模型。选择那些社区活跃、文档齐全、对话模板清晰的开源模型会为你节省大量调试时间。小成本试错在投入大量资源进行全量训练前先用1%的数据在LoRA配置下快速跑一个“实验轮”看看损失曲线是否正常模型输出是否有积极变化。这能帮你快速验证数据管道和训练脚本的正确性。5.3 延伸学习与社区资源self-llm是一个起点而不是终点。要深入掌握大模型训练还需要了解更多深入原理阅读Transformer、注意力机制、RLHFPPO算法的原始论文。工程实践学习DeepSpeed、Megatron-LM等分布式训练框架以应对更大规模的训练需求。关注前沿紧跟Parameter-Efficient Fine-Tuning (PEFT) 的新方法如LoRA的变种DoRA、LoRA、以及模型合并Model Merging等技术。社区参与多关注Hugging Face、GitHub上的优秀开源项目如OpenAssistant、Alpaca、Chinese-LLaMA-Alpaca等它们的实践和讨论极具参考价值。最后我想分享一点个人体会构建自己的LLM就像养育一个孩子数据是营养算法是教育方法算力是成长环境。self-llm项目提供了一套科学的“育儿手册”。这个过程充满挑战从数据清洗的繁琐到调试超参数的焦灼再到看到模型第一次给出令人惊喜回答时的欣慰。它最大的回报不是最终的那个模型文件而是在整个过程中你对数据、对算法、对计算本身建立起的深刻直觉。这种直觉是单纯调用API永远无法获得的。所以如果你对AI的热情不止于使用而在于创造和理解那么以self-llm这样的项目为舟驶入大模型训练的深海将是一段无比值得的旅程。先从一份干净的数据、一个明确的指令任务、一次简单的LoRA微调开始吧。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2620625.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…