基于大语言模型的婚恋情感助手:技术架构与伦理实践

news2026/4/30 20:52:09
1. 项目概述当大语言模型遇见婚恋场景最近在GitHub上看到一个挺有意思的项目叫saofund/marrywise-llm。光看名字marrywise这个词就挺有嚼头结合llm基本能猜到这是一个将大语言模型LLM应用于婚恋、情感或伴侣关系领域的项目。作为一名长期关注AI应用落地的从业者我立刻来了兴趣。毕竟大模型在代码生成、内容创作、客服对话等领域已经遍地开花但在婚恋这种高度依赖情感、价值观和复杂人际互动的场景下它能做什么能做到什么程度这背后涉及的技术挑战和伦理考量远比一个简单的聊天机器人要复杂得多。简单来说marrywise-llm项目探索的是如何利用LLM的能力去理解、分析甚至辅助处理与婚恋、情感相关的问题。这可能包括但不限于情感倾诉与陪伴、关系问题分析与建议、价值观匹配度评估、沟通技巧训练甚至是模拟对话练习。它的目标用户可能是正在寻找伴侣的单身人士、希望改善现有关系的伴侣或者是对亲密关系感到困惑、需要第三方视角的任何人。这个项目的核心价值在于它试图将AI的理性分析能力与人类情感的模糊性、主观性结合起来提供一个相对客观、私密且随时可用的“数字顾问”。当然这条路并不好走。婚恋问题没有标准答案充满了文化差异、个人偏好和瞬息万变的情绪。一个成功的marrywise-llm项目绝不能只是一个披着婚恋外衣的通用聊天模型。它需要在模型微调、提示工程、安全护栏、评估体系等多个层面进行深度定制。接下来我就结合自己的经验深入拆解一下实现这样一个项目需要关注的核心环节、技术选型以及那些容易踩坑的地方。2. 核心思路与技术架构设计2.1 项目定位与核心需求解析首先我们必须明确marrywise-llm的边界。它不是一个“AI红娘”直接给你匹配对象也不是一个“关系判决器”告诉你该分手还是结婚。更合理的定位是一个“关系分析与沟通辅助工具”。它的核心需求可以分解为几个层次理解与共情能够准确理解用户描述的情感状态、关系矛盾、个人诉求。这要求模型不仅能解析字面意思还要能捕捉情绪色彩、隐含的假设和未言明的需求。例如用户说“他总是不回我消息”背后可能是对安全感的焦虑而非单纯对行为的不满。分析与框架能够将具体问题置于某些成熟的关系理论或沟通框架下进行分析。比如运用“非暴力沟通”NVC的框架来拆解一场争吵或者用“爱的五种语言”理论来解释双方感受爱的差异。建议与生成基于分析提供具体、可操作的建议。这可能包括沟通话术建议、自我反思的提问、关系互动的小练习或者在用户授权下生成模拟对话让对方练习如何开口。安全与伦理这是生命线。模型必须避免给出有害、偏激、歧视性或法律风险的建议如教唆暴力、跟踪、PUA话术。同时必须明确自身局限性在用户出现严重心理问题或关系危机如家暴时给出寻求专业帮助的强烈建议。基于这些需求技术架构上就不能直接调用一个原始的基础大模型如 GPT-4、ChatGLM、Qwen而必须进行深度定制。2.2 技术栈选型与考量一个典型的marrywise-llm技术栈可能包含以下组件每一部分的选择都至关重要1. 基座模型Base Model选择考量因素中文理解能力、上下文长度、微调成本、推理速度、开源协议。常见候选Qwen通义千问系列在中文任务上表现优异开源版本丰富如 Qwen2.5-7B/14B上下文长度支持出色可达128K甚至更长适合处理冗长的情感叙述。其指令跟随能力经过优化是很好的起点。ChatGLM3 系列同样以中文见长对多轮对话有专门优化架构成熟社区活跃。对于对话流畅性要求高的场景是强有力候选。Llama 3 系列英文能力顶尖中文通过高质量扩展词表也能达到很好效果。其强大的推理能力和丰富的开源生态如 Llama 3.1 8B/70B是巨大优势但需要评估其中文语料训练是否足够。选择建议如果项目侧重中文场景优先考虑 Qwen 或 ChatGLM。如果希望模型具备更强的逻辑推理和复杂问题拆解能力且不介意在中文上做一些额外的微调工作Llama 3 是值得挑战的选择。对于初期验证从 7B 参数量的模型开始是稳妥的。2. 微调Fine-tuning策略这是项目的核心。我们需要用高质量的婚恋领域数据让模型学会“婚恋领域的说话方式”。数据构建这是最大的挑战。数据来源可以包括公开论坛与问答如豆瓣小组、知乎情感话题下的高质量问答需注意脱敏和版权。专业书籍与理论将《非暴力沟通》、《爱的五种语言》、《亲密关系》等经典著作的内容结构化作为知识注入。模拟对话生成利用高级模型如 GPT-4基于上述知识生成大量的、符合伦理的模拟咨询对话用户提问-顾问回答。关键点数据必须经过严格的清洗和标注去除有毒、偏激内容并为数据打上标签如问题类型沟通冲突、信任危机、价值观差异建议框架NVC、认知行为疗法CBT等。微调方法全参数微调Full Fine-tuning效果最好但成本高需要强大的算力。适合数据量充足、追求极致效果的团队。参数高效微调PEFT如 LoRA低秩适应、QLoRA量化LoRA。这是当前的主流和首选。它只训练模型的一小部分参数大大降低了计算和存储成本且效果接近全参数微调。对于marrywise-llm这类垂直应用QLoRA 是性价比最高的方案。提示词工程Prompt Engineering在微调之前先通过精心设计的系统提示词System Prompt来引导模型行为。这是成本最低的尝试可以作为基线。例如在提示词中明确模型角色“你是一位富有同理心且遵循专业伦理的关系顾问”、回答原则和禁忌。3. 安全与评估层安全护栏Safety Guardrail必须在模型输入输出端部署额外的分类器或规则引擎用于实时检测并拦截有害内容。例如可以训练一个二分类模型专门识别包含“暴力”、“自残”、“歧视”、“非法建议”等风险的文本一旦触发则阻止回复并转而输出标准的安全提示如“您提到的情况可能涉及严重问题强烈建议您联系专业的心理咨询师或相关援助机构”。评估体系如何衡量marrywise-llm的好坏不能只看通顺度。需要构建一个多维度的评估基准Benchmark有用性建议是否具体、可操作安全性是否避免了有害建议同理心回应是否让人感到被理解专业性是否合理运用了关系理论框架一致性对相似问题的回答是否逻辑自洽 可以邀请领域专家如心理咨询师、婚姻家庭咨询师对一批测试问题进行人工评分形成黄金标准数据集。4. 应用层与部署后端框架FastAPI 或 Django用于构建模型服务的 API。模型服务使用vLLM或TGIText Generation Inference进行高性能推理部署它们支持连续批处理、PagedAttention等优化能显著提高吞吐量。前端界面一个简洁、私密的聊天界面即可。重点在于用户体验的流畅和安全感可以考虑加入“清空对话”、“导出记录”等功能。记忆与上下文为了进行连续、深入的对话需要维护对话历史。简单的做法是将历史对话拼接在每次的输入中。更复杂的可以引入向量数据库如Chroma,Milvus将历史对话片段向量化存储在需要时进行相关性检索作为上下文补充以突破模型原生上下文长度的限制。3. 关键实现步骤与实操要点假设我们选择Qwen2.5-7B-Instruct作为基座模型采用QLoRA进行微调下面拆解关键步骤。3.1 数据准备与预处理这是最耗时但决定性的环节。步骤1数据收集与清洗来源从合规渠道获取原始文本。例如爬取知乎“情感”话题下高赞回答的评论区模拟用户提问和回答正文模拟顾问回复但必须严格遵守网站Robots协议并进行脱敏处理去除用户名、地点等个人信息。清洗去除广告、无关链接、纯表情回复。过滤长度过短如10字或过长如1000字的文本。使用敏感词库过滤明显违规内容。格式化将数据整理成指令微调Instruction Tuning的格式。通常使用jsonl文件每条数据包含instruction用户输入、output期望的模型输出。对于对话数据可以整理成多轮形式。{ instruction: 我和男朋友因为家务分工总是吵架我觉得他不够体谅我怎么办, output: 听起来家务分工问题让你们都感到委屈和疲惫这确实是很多伴侣会遇到的挑战。我们可以先不评判对错试试用‘非暴力沟通’的方式来梳理一下1. **观察**具体是哪件家务、在什么情况下容易引发争吵2. **感受**当对方不做家务时你感受到的是愤怒还是背后的孤独、不被重视3. **需要**你内心真正的需要是‘分担劳动’还是‘被看见付出’、‘被关怀’4. **请求**你可以提出一个具体、正向的请求比如‘这周末我们能不能一起花半小时把家务清单列出来商量一个我们都觉得公平的分工’。重点是表达你的感受和需要而不是指责对方。你可以先从这个角度和他聊聊看吗 }步骤2数据增强与合成仅靠真实数据可能不够。可以利用GPT-4或Claude等高级模型进行数据合成。方法编写详细的提示词要求模型扮演专业关系顾问基于我们提供的理论框架如NVC、CBT、依恋理论针对各种常见婚恋场景如异地恋信任危机、彩礼分歧、产后关系调整生成高质量的问答对。关键在提示词中严格限定伦理边界并要求模型在回答中标注所使用的理论框架。这样生成的数据不仅质量较高还自带“理论标签”便于后续分析。步骤3数据标注与分类为处理好的数据打上标签。这可以手动进行也可以用较小的分类模型辅助。标签体系示例problem_type:communication,trust,value,intimacy,family,financeadvice_framework:nvc,cbt,five_love_languages,general_supporturgency_level:low,medium,high(用于触发不同的安全响应)标注好的数据将用于训练更精细的模型或用于评估。实操心得数据质量 数据数量。1000条精心清洗、标注准确的高质量数据远胜于10万条噪音大的数据。在婚恋领域一条包含偏见如“女人就该多做家务”的数据可能会让模型学到错误的模式后果严重。建议组建一个小规模专家评审团可以是心理学专业的学生或志愿者对核心数据集进行抽样审核。3.2 使用QLoRA进行模型微调我们使用PEFT库和Transformers库来实现 QLoRA 微调。步骤1环境配置与模型加载# 安装核心库 pip install transformers accelerate peft bitsandbytes datasets trlimport torch from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training # 1. 量化配置4-bit量化极大降低显存 bnb_config BitsAndBytesConfig( load_in_4bitTrue, bnb_4bit_quant_typenf4, bnb_4bit_compute_dtypetorch.float16, bnb_4bit_use_double_quantTrue, ) # 2. 加载基座模型和分词器 model_name Qwen/Qwen2.5-7B-Instruct tokenizer AutoTokenizer.from_pretrained(model_name, trust_remote_codeTrue) # 注意使用量化配置加载模型 model AutoModelForCausalLM.from_pretrained( model_name, quantization_configbnb_config, device_mapauto, trust_remote_codeTrue ) tokenizer.pad_token tokenizer.eos_token # 设置填充令牌 # 3. 准备模型用于k-bit训练 model prepare_model_for_kbit_training(model)步骤2配置LoRA参数# 配置LoRA lora_config LoraConfig( r8, # LoRA秩影响参数量通常8-32越小越轻量 lora_alpha32, # 缩放参数通常设置为r的2-4倍 target_modules[q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj], # 针对Qwen的模块名 lora_dropout0.1, biasnone, task_typeCAUSAL_LM ) # 应用LoRA到模型 model get_peft_model(model, lora_config) model.print_trainable_parameters() # 查看可训练参数量通常只有原模型的0.1%-1%步骤3准备训练数据与训练参数from datasets import load_dataset # 加载我们准备好的数据集 dataset load_dataset(json, data_filesmarriage_counseling_data.jsonl, splittrain) def format_instruction(example): # 将数据格式化为模型输入的文本 text f|im_start|user\n{example[instruction]}|im_end|\n|im_start|assistant\n{example[output]}|im_end| return {text: text} dataset dataset.map(format_instruction) # 分词 def tokenize_function(examples): return tokenizer(examples[text], truncationTrue, paddingmax_length, max_length1024) tokenized_dataset dataset.map(tokenize_function, batchedTrue, remove_columns[text, instruction, output]) from transformers import TrainingArguments, Trainer training_args TrainingArguments( output_dir./marrywise-llm-lora, num_train_epochs3, # 轮数根据数据量调整 per_device_train_batch_size4, # 根据GPU显存调整 gradient_accumulation_steps4, # 模拟更大批次 warmup_steps100, logging_steps50, save_steps500, evaluation_strategysteps, eval_steps500, learning_rate2e-4, # LoRA学习率可以稍高 fp16True, # 混合精度训练 optimpaged_adamw_8bit, # 使用8-bit优化器节省显存 report_tonone, # 不报告到wandb等平台 )步骤4执行训练trainer Trainer( modelmodel, argstraining_args, train_datasettokenized_dataset, data_collatorDataCollatorForLanguageModeling(tokenizertokenizer, mlmFalse), ) trainer.train() trainer.save_model() # 保存LoRA权重注意事项训练过程中要密切关注损失loss曲线。如果损失下降很快但评估效果不佳可能是过拟合需要减少训练轮数或增加数据。QLoRA训练后我们得到的是一个很小的适配器权重文件通常几十到几百MB需要与原始基座模型结合使用。3.3 模型推理与服务部署训练完成后我们需要加载“基座模型 LoRA权重”进行推理。步骤1加载模型进行推理from peft import PeftModel # 加载基座模型同样需要量化配置以节省内存 base_model AutoModelForCausalLM.from_pretrained( model_name, quantization_configbnb_config, device_mapauto, trust_remote_codeTrue ) tokenizer AutoTokenizer.from_pretrained(model_name, trust_remote_codeTrue) # 加载LoRA权重并合并 model PeftModel.from_pretrained(base_model, ./marrywise-llm-lora) model model.merge_and_unload() # 将LoRA权重合并到原模型提升推理速度可选合并后无法再次训练 # 推理函数 def generate_response(user_input): prompt f|im_start|user\n{user_input}|im_end|\n|im_start|assistant\n inputs tokenizer(prompt, return_tensorspt).to(model.device) with torch.no_grad(): outputs model.generate( **inputs, max_new_tokens512, temperature0.7, # 控制创造性婚恋建议需要稳定性不宜过高 top_p0.9, do_sampleTrue, repetition_penalty1.1, pad_token_idtokenizer.eos_token_id ) response tokenizer.decode(outputs[0][inputs[input_ids].shape[1]:], skip_special_tokensTrue) return response # 测试 test_input 我最近和伴侣没什么话聊感觉感情变淡了该怎么办 print(generate_response(test_input))步骤2使用vLLM部署高性能API对于生产环境使用vLLM能获得极佳的吞吐量。# 安装vLLM pip install vllm首先我们需要将合并后的完整模型或基座模型LoRA适配器保存为vLLM可加载的格式通常就是标准的Hugging Face格式。# 保存完整模型 model.save_pretrained(./marrywise-llm-full) tokenizer.save_pretrained(./marrywise-llm-full)然后使用vLLM启动一个API服务器# 启动OpenAI兼容的API服务器 python -m vllm.entrypoints.openai.api_server \ --model ./marrywise-llm-full \ --served-model-name marrywise-llm \ --max-model-len 8192 \ --tensor-parallel-size 1 # 如果有多卡可以增加现在你就可以通过标准的OpenAI API格式来调用你的模型了curl http://localhost:8000/v1/completions \ -H Content-Type: application/json \ -d { model: marrywise-llm, prompt: |im_start|user\n我最近和伴侣没什么话聊感觉感情变淡了该怎么办|im_end|\n|im_start|assistant\n, max_tokens: 512, temperature: 0.7 }步骤3构建安全护栏中间件在API服务器之前需要部署一个安全过滤层。可以是一个简单的Python服务使用FastAPI编写对输入和输出进行检查。from fastapi import FastAPI, HTTPException import requests import re app FastAPI() MODEL_API_URL http://localhost:8000/v1/completions # 简单的关键词和正则模式匹配生产环境应用更复杂的分类模型 DANGEROUS_PATTERNS [r(自杀|自残|杀.*人|暴力), r(歧视.*(女性|男性|地域)), ...] PROFESSIONAL_REFERRAL_TRIGGERS [r(虐待|家暴|重度抑郁), ...] def safety_check(text): for pattern in DANGEROUS_PATTERNS: if re.search(pattern, text): return False, 您的输入包含可能有害的内容我无法处理。如果您正处于危机中请立即联系当地的心理危机干预热线或信任的人。 for trigger in PROFESSIONAL_REFERRAL_TRIGGERS: if re.search(trigger, text): # 不阻止但会在模型回复后追加提示 return True, APPEND_REFERRAL return True, None app.post(/chat) async def chat_endpoint(user_input: str): is_safe, safe_msg safety_check(user_input) if not is_safe: return {response: safe_msg, flagged: True} # 调用vLLM API payload { model: marrywise-llm, prompt: f|im_start|user\n{user_input}|im_end|\n|im_start|assistant\n, max_tokens: 512, temperature: 0.7 } try: resp requests.post(MODEL_API_URL, jsonpayload) resp.raise_for_status() model_output resp.json()[choices][0][text] except Exception as e: raise HTTPException(status_code500, detailfModel inference error: {e}) # 对输出进行安全检查 is_safe_out, safe_msg_out safety_check(model_output) if not is_safe_out: model_output 我的回复未能通过安全审核。对于您的问题我建议寻求合格的专业人士进行面对面咨询。 # 如果需要追加专业求助提示 if safe_msg APPEND_REFERRAL: model_output \n\n【重要提示】您描述的情况可能涉及严重的个人或关系危机。我的建议仅为一般性参考不能替代专业的心理咨询或法律帮助。强烈建议您联系当地的心理咨询中心、家庭暴力援助热线或相关社会服务机构。 return {response: model_output, flagged: False}这样前端应用就调用这个/chat接口而不是直接调用模型API。4. 评估、迭代与伦理考量4.1 如何评估模型效果训练完模型不能只看生成的文本是否通顺。需要一套系统的评估方法。1. 自动化指标基础困惑度Perplexity在保留的验证集上计算衡量模型对领域语言的熟悉程度。BLEU/ROUGE与测试集中“标准答案”的文本相似度。但在开放域对话中这些指标参考价值有限因为“正确回答”不唯一。2. 人工评估核心 这是最可靠的方式。需要设计评估问卷邀请目标用户或领域专家进行打分。评估维度相关性回答是否紧扣问题有用性建议是否具体、可操作安全性是否无有害、偏见内容同理心语气是否温暖、理解专业性是否体现了对关系理论的合理运用评估方法可以采用A/B测试将微调后的模型与原始基座模型、或市面上其他情感聊天机器人的回答进行盲评对比。3. 线上测试与反馈循环 在小范围内部或友好用户群中上线测试收集真实用户的反馈。关注用户最常问哪些问题哪些回答获得了用户的正面反馈如点赞、深入追问哪些回答导致了对话终止或用户不满是否有任何意外或有害的输出基于这些反馈可以有针对性地补充训练数据进行迭代微调。4.2 必须面对的伦理与风险开发marrywise-llm这类应用技术只是冰山一角水面下的伦理风险才是真正的挑战。1. 责任边界必须清晰免责声明必须在产品显著位置声明该AI并非专业的心理咨询师或婚姻家庭咨询师其建议仅供参考不能替代专业帮助。危机干预如前所述必须建立机制在检测到用户可能处于虐待、自残或严重心理危机时明确引导其寻求专业帮助并提供相关资源信息如热线电话。2. 偏见与公平性训练数据中可能隐含的社会文化偏见如性别角色刻板印象、对特定群体的歧视会被模型学习并放大。必须在数据清洗和模型评估阶段专门设置针对偏见的检测和修正流程。可以构建一个“偏见测试集”包含各种可能引发歧视性回答的场景定期测试模型。3. 依赖性与情感投射需要警惕用户对AI产生过度情感依赖。可以在对话中适时、自然地提醒用户关注现实世界的人际连接。避免设计让用户觉得是在与一个“真人”对话的拟人化特征如虚拟形象、过于人性化的自我介绍这有助于管理用户预期。4. 数据隐私对话数据是极度敏感的隐私。必须采用端到端加密明确的数据保留和删除政策如对话记录仅保存在用户本地或短期内存并遵守所有相关的数据保护法规。个人体会做这类项目技术上的挑战往往在预料之中而伦理和产品设计上的纠结才是真正的“坑”。我曾在一个早期原型中因为系统提示词中一句无心的“我会一直在这里陪伴你”导致有测试用户产生了不切实际的依赖。后来我们将其改为“我在这里为你提供基于专业知识的分析和视角但真正能陪伴和支持你的是你身边的真实人际关系”效果就好很多。时刻记住AI是工具是辅助而不是关系的替代品或裁决者。5. 未来可能的演进方向如果marrywise-llm项目基础打得好有几个方向值得深入探索1. 多模态交互允许用户上传文字以外的内容进行分析。例如分析伴侣双方一段文字沟通的语气和情绪文本情感分析或者在未来技术成熟时谨慎地分析语音通话的语调需极度重视隐私和伦理。这能提供更丰富的分析维度。2. 个性化与长期记忆在用户授权的前提下安全地存储和分析用户的历史对话从而提供更具连续性和个性化的建议。例如模型可以提醒“三个月前你们也因类似问题困扰当时尝试的XX方法效果如何”。这需要极其坚固的隐私保护方案。3. 协同模式设计用于“伴侣共同使用”的模式。例如引导双方分别描述同一事件然后由AI中立地呈现双方视角的异同促进相互理解。或者提供一些需要双方共同完成的互动小练习。4. 与专业服务连接探索与线下专业心理咨询平台或机构的合规合作模式。在AI初步评估认为问题超出其能力范围时可以提供平滑转接至真人专业顾问的通道需解决伦理和商业模式的复杂问题。实现一个有用、安全、负责任的marrywise-llm绝非易事。它要求开发者不仅是技术专家更要成为半个心理学家、伦理学家和产品设计师。技术的温度体现在对用户处境的深刻理解和对潜在风险的敬畏之心上。这条路很长但每一步扎实的探索都可能为那些在情感迷宫中寻找出路的人提供一丝有价值的微光。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2569910.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…