开发者必看:Nanbeige 4.1-3B Streamlit UI深度解析与本地部署教程

news2026/3/24 15:10:15
开发者必看Nanbeige 4.1-3B Streamlit UI深度解析与本地部署教程1. 引言当大模型遇上极简美学如果你厌倦了千篇一律、布局拥挤的大模型Web界面如果你希望给本地部署的AI助手一个清爽、现代、像手机聊天软件一样的家那么今天这个项目就是为你准备的。南北阁Nanbeige4.1-3B是一个优秀的开源大语言模型但大多数开发者在使用时要么面对简陋的命令行要么忍受着功能堆砌但体验不佳的Web界面。今天我要介绍的是一个专为Nanbeige 4.1-3B打造的Streamlit WebUI——它彻底改变了传统界面的刻板印象。这个界面最大的特点是什么极简、清爽、沉浸感强。它借鉴了现代二次元游戏比如《蔚蓝档案》的MomoTalk和手机短信的对话风格通过纯CSS魔法把Streamlit原生组件的死板排版完全重塑了。你不再需要忍受侧边栏的干扰不再需要看着方形的头像发呆整个对话体验就像在和手机里的朋友聊天一样自然。更重要的是这个项目开箱即用。你不需要学习React、Vue这些前端框架不需要搭建复杂的前后端分离架构只需要一个Python文件就能拥有一个专业级的对话界面。接下来我会带你从零开始一步步部署这个界面并深入解析它的技术实现。2. 核心亮点为什么这个界面值得一试2.1 视觉设计的彻底革新传统的Streamlit应用有个通病布局受限样式单调。默认的组件排列方式让界面看起来像是技术原型而不是成熟的产品。这个项目通过深度定制CSS解决了三个关键问题第一告别了拥挤的侧边栏。很多AI对话界面喜欢把设置、历史记录、模型参数全部塞进侧边栏导致主对话区域被压缩。这个界面采用了全屏沉浸式设计所有操作都集成在顶部和对话区域视觉焦点完全集中在对话本身。第二实现了真正的聊天气泡。不是简单的文本框堆叠而是左右对齐、圆角设计、带有微妙阴影的气泡。用户的消息在右侧天蓝色背景AI的回复在左侧纯白背景。这种设计不仅美观更重要的是符合用户的直觉——就像在使用微信、iMessage一样。第三背景和细节的精心打磨。界面采用了高级的浅灰蓝作为主色调搭配极简的圆点矩阵网格背景。这种设计既不会过于花哨分散注意力又避免了纯白色的刺眼感。右上角的“清空记录”按钮做成了悬浮药丸状鼠标悬停时有微妙的动画效果。2.2 智能的思考过程处理Nanbeige 4.1-3B这类支持深度思考Chain-of-ThoughtCoT的模型在生成回复时经常会输出推理过程。传统的做法是把这些内容直接显示出来结果就是对话被大段的思考过程打断阅读体验很差。这个界面做了一个很聪明的设计自动捕获并折叠思考过程。具体来说它会识别模型输出中的think.../think标签这是很多模型用来标记思考过程的标准格式然后把这段内容优雅地收纳进一个可折叠的面板里。你可以看到这样的效果AI的回复气泡里主要答案正常显示右下角有一个小小的“查看思考过程”按钮。点击这个按钮思考过程才会展开。这样既保留了模型的推理透明度又保持了界面的清爽。2.3 丝滑的流式输出体验流式输出逐字显示现在几乎是AI对话的标配但实现得好不好体验天差地别。很多界面在流式输出时会出现闪烁、跳动、布局错乱的问题看着就让人焦虑。这个项目基于TextIteratorStreamer和多线程技术实现了打字机级别的极速流式输出。更重要的是它通过特制的防抖CSS确保了生成过程中气泡不会发生任何闪烁或变形。我测试时的感受是文字是一个个“流”出来的但气泡的尺寸是平滑过渡的不会突然变大变小。光标在最后一个字后面稳定闪烁就像真的有人在打字一样。这种细节的打磨让整个对话过程非常舒适。2.4 极简的部署方式这是我最喜欢的一点单文件部署。整个项目就一个app.py文件加上一些CSS样式。你不需要安装Node.js不需要编译前端代码不需要配置Web服务器。对于Python开发者来说这意味着什么意味着你可以在5分钟内从零跑起一个完整的Web界面。意味着你可以轻松地修改代码、定制功能。意味着你可以把这个界面作为基础快速适配到其他大模型上。3. 环境准备与快速部署3.1 检查基础环境在开始之前确保你的系统满足以下要求Python版本推荐Python 3.10或更高版本。Python 3.8也能运行但某些新特性可能不支持。操作系统Windows、macOS、Linux都可以但Linux特别是Ubuntu的兼容性最好。内存要求至少8GB空闲内存。Nanbeige 4.1-3B模型本身大约需要6GB内存加上Streamlit和其他开销8GB是底线。磁盘空间模型文件大约6GB建议预留10GB空间。如果你不确定自己的Python版本打开终端Windows是命令提示符或PowerShellmacOS/Linux是Terminal输入python --version如果显示Python 3.10.x或更高就可以继续了。3.2 安装依赖库这个项目只依赖三个主要的Python库安装非常简单pip install streamlit torch transformers accelerate让我解释一下每个库的作用streamlit这是构建Web界面的框架。它让你用纯Python写前端特别适合数据科学和机器学习项目。torchPyTorch深度学习框架用来加载和运行模型。transformersHugging Face的库提供了加载大语言模型的标准接口。accelerate优化模型推理速度特别是在CPU或低配GPU上。安装过程通常需要几分钟取决于你的网络速度。如果遇到下载慢的问题可以考虑使用国内的镜像源pip install streamlit torch transformers accelerate -i https://pypi.tuna.tsinghua.edu.cn/simple3.3 下载模型权重这是最关键的一步。你需要先下载Nanbeige 4.1-3B的模型文件。方法一从Hugging Face直接下载如果你能正常访问Hugging Face这是最简单的方法# 创建一个存放模型的目录 mkdir -p ~/ai-models/nanbeige # 使用git下载需要先安装git-lfs git lfs install git clone https://huggingface.co/Nanbeige/Nanbeige4___1-3B ~/ai-models/nanbeige/Nanbeige4___1-3B方法二手动下载如果网络有问题如果直接下载速度太慢你可以访问Nanbeige的Hugging Face页面https://huggingface.co/Nanbeige/Nanbeige4___1-3B点击“Files and versions”标签逐个下载所有文件主要是.bin、.json、.model等在本地创建相同的目录结构把所有文件放进去方法三使用模型下载工具如果你经常下载大模型可以考虑使用一些专门的工具# 使用huggingface-hub库 pip install huggingface-hub python -c from huggingface_hub import snapshot_download; snapshot_download(repo_idNanbeige/Nanbeige4___1-3B, local_dir./nanbeige-model)无论用哪种方法下载完成后你应该有一个包含以下文件的目录config.json模型配置文件pytorch_model.bin或.safetensors模型权重文件tokenizer.json或相关文件分词器文件其他配置文件3.4 配置与启动现在进入最激动人心的环节启动Web界面。第一步获取项目代码你可以直接从GitHub下载或者如果你已经拿到了app.py文件直接放到一个干净的目录里。第二步修改模型路径用文本编辑器打开app.py找到下面这行代码# 修改为你自己的模型路径 MODEL_PATH /root/ai-models/nanbeige/Nanbeige4___1-3B/把路径改成你实际存放模型的路径。比如Windows用户MODEL_PATH C:/ai-models/nanbeige/Nanbeige4___1-3B/macOS/Linux用户MODEL_PATH /home/yourname/ai-models/nanbeige/Nanbeige4___1-3B/注意路径要用正斜杠/即使是在Windows上。确保路径末尾有斜杠。第三步启动服务打开终端进入存放app.py的目录然后运行streamlit run app.py你会看到类似这样的输出You can now view your Streamlit app in your browser. Local URL: http://localhost:8501 Network URL: http://192.168.1.x:8501第四步打开浏览器Streamlit会自动打开你的默认浏览器访问http://localhost:8501。如果没有自动打开你可以手动输入这个地址。第一次加载可能需要一些时间因为要加载模型。耐心等待1-2分钟你就会看到那个清爽的聊天界面了4. 界面功能详解与使用技巧4.1 主界面布局解析当你第一次打开界面时会看到这样的布局顶部区域左上角是极简的标题“Nanbeige Chat”右上角是悬浮的“清空记录”按钮鼠标放上去会变成手型中间区域浅灰蓝色的背景带有细微的圆点网格初始状态下是空白的等待你的第一条消息底部区域一个长条形的输入框占满整个宽度输入框右侧有发送按钮回车键也可以发送整个界面没有任何多余的装饰没有任何分散注意力的元素。这就是“极简”设计的精髓该有的功能都有不该有的一概不要。4.2 开始你的第一次对话在输入框里打字你会注意到几个细节输入框是药丸形状的圆角很大看起来非常柔和输入时会有轻微的阴影变化提示你正在输入支持多行输入按ShiftEnter可以换行试着输入一些简单的问题比如你好请介绍一下你自己。点击发送按钮或者按Enter键你会看到你的消息瞬间出现在右侧天蓝色的气泡AI开始思考左侧出现白色的气泡文字一个字一个字地流出来如果AI有思考过程你会看到气泡右下角有一个小按钮4.3 高级功能使用技巧查看思考过程 当AI回复时如果气泡右下角出现“查看思考过程”按钮点击它。思考过程会以折叠面板的形式展开你可以看到模型是如何一步步推理的。再次点击可以收起。清空对话记录 点击右上角的“清空记录”按钮所有对话历史都会被清除界面恢复到初始状态。这个操作不可撤销所以谨慎使用。流式输出的控制 如果你觉得流式输出的速度太快或太慢可以在代码中调整。打开app.py找到流式输出的相关代码修改TextIteratorStreamer的参数# 调整这个参数可以控制流式输出的速度 streamer TextIteratorStreamer(tokenizer, timeout60.0, skip_promptTrue, skip_special_tokensTrue)自定义界面样式 如果你懂一点CSS可以轻松修改界面外观。在app.py中有一个很长的CSS字符串里面定义了所有的样式。比如想改背景颜色/* 找到这行代码 */ background: linear-gradient(135deg, #f5f7fa 0%, #e4e8f0 100%); /* 改成你喜欢的颜色 */ background: linear-gradient(135deg, #ffefba 0%, #ffffff 100%);4.4 常见问题解决问题一启动时报错“找不到模型”检查MODEL_PATH路径是否正确确保路径末尾有斜杠确保模型文件完整下载问题二界面加载很慢第一次加载需要初始化模型耐心等待1-2分钟检查电脑内存是否足够至少8GB空闲如果是CPU运行速度会慢一些考虑使用GPU问题三流式输出卡顿可能是网络问题如果是远程服务器可能是电脑性能不足尝试在代码中增加timeout参数问题四思考过程没有正确折叠确保模型输出中包含think和/think标签检查CSS是否正常加载按F12打开开发者工具查看5. 技术深度解析CSS魔法如何实现5.1 Streamlit的样式限制与突破Streamlit是一个很棒的工具但它对样式的控制比较有限。默认情况下所有组件都是垂直排列的样式也比较基础。这个项目的核心突破在于用CSS的:has()选择器实现了动态布局。传统Streamlit要实现左右聊天气泡通常需要复杂的HTML注入或者自定义组件。但这个项目找到了一个更优雅的解决方案。5.2 :has()选择器的神奇作用:has()是CSS的一个相对较新的选择器它允许你根据子元素的状态来选择父元素。在这个项目中它是这样使用的# 在Python代码中注入标记 if message[role] user: st.markdown(fspan classuser-mark/span{message[content]}, unsafe_allow_htmlTrue) else: st.markdown(message[content])/* 在CSS中检测这个标记 */ .stChatMessage:has(.user-mark) { flex-direction: row-reverse; }这个技巧的精妙之处在于用户消息中插入了一个不可见的span classuser-mark/spanCSS通过:has(.user-mark)找到包含这个标记的聊天消息容器将容器的flex方向改为row-reverse从右到左这样用户气泡就自然出现在右侧了5.3 流式输出的技术实现流式输出看起来简单但要做得流畅并不容易。这个项目采用了多线程方案import threading from transformers import TextIteratorStreamer # 创建流式输出器 streamer TextIteratorStreamer(tokenizer, timeout60.0) # 在新线程中生成文本 generation_kwargs dict(inputsinput_ids, streamerstreamer, max_new_tokens512) thread threading.Thread(targetmodel.generate, kwargsgeneration_kwargs) thread.start() # 主线程中逐步显示 for token in streamer: # 更新显示 placeholder.markdown(current_text token)关键点TextIteratorStreamer负责从模型获取token流生成过程放在单独的线程避免阻塞主线程主线程不断从streamer读取token并更新显示CSS确保更新过程中布局稳定5.4 思考过程的智能捕获思考过程的折叠功能是通过正则表达式实现的import re def extract_thought_process(text): 从文本中提取思考过程 pattern rthink(.*?)/think matches re.findall(pattern, text, re.DOTALL) return matches[0] if matches else None def remove_thought_process(text): 移除思考过程标签保留主要回答 return re.sub(rthink.*?/think, , text, flagsre.DOTALL).strip()工作流程模型生成包含think.../think的文本用正则表达式提取思考过程内容从主文本中移除思考过程标签主文本正常显示思考过程放入折叠面板通过Streamlit的st.expander实现折叠效果5.5 性能优化技巧这个界面虽然美观但对性能也有要求。代码中做了几个优化内存优化# 使用低精度加载减少内存占用 model AutoModelForCausalLM.from_pretrained( MODEL_PATH, torch_dtypetorch.float16, # 使用半精度 device_mapauto, # 自动选择设备 low_cpu_mem_usageTrue # 减少CPU内存使用 )生成速度优化# 调整生成参数平衡速度和质量 generation_config { max_new_tokens: 512, temperature: 0.7, top_p: 0.9, do_sample: True, repetition_penalty: 1.1, }界面响应优化使用Streamlit的session_state管理对话历史避免每次交互都重新加载模型使用缓存减少重复计算6. 自定义与扩展指南6.1 修改界面样式如果你想要不同的视觉风格可以修改CSS部分。主要可以调整以下几个地方修改配色方案/* 用户气泡颜色 */ .user-bubble { background: linear-gradient(135deg, #667eea 0%, #764ba2 100%); } /* AI气泡颜色 */ .ai-bubble { background: linear-gradient(135deg, #fdfcfb 0%, #e2d1c3 100%); } /* 背景 */ .background { background: linear-gradient(135deg, #a8edea 0%, #fed6e3 100%); }修改字体和间距/* 字体 */ .chat-message { font-family: Microsoft YaHei, Segoe UI, sans-serif; font-size: 16px; line-height: 1.6; } /* 气泡间距 */ .stChatMessage { margin-bottom: 20px; }添加动画效果/* 气泡出现动画 */ keyframes bubbleAppear { from { opacity: 0; transform: translateY(20px); } to { opacity: 1; transform: translateY(0); } } .chat-bubble { animation: bubbleAppear 0.3s ease-out; }6.2 适配其他大模型这个界面虽然是为Nanbeige设计的但很容易适配到其他模型。主要需要修改以下几个地方修改模型加载代码# 对于Qwen模型 from transformers import AutoTokenizer, AutoModelForCausalLM MODEL_PATH Qwen/Qwen2.5-3B-Instruct tokenizer AutoTokenizer.from_pretrained(MODEL_PATH, trust_remote_codeTrue) model AutoModelForCausalLM.from_pretrained( MODEL_PATH, torch_dtypetorch.float16, device_mapauto )调整对话模板 不同的模型有不同的对话格式。你需要根据目标模型调整消息格式# Nanbeige的格式 def format_nanbeige(messages): formatted for msg in messages: if msg[role] user: formatted f用户{msg[content]}\n\n else: formatted f助手{msg[content]}\n\n return formatted # Qwen的格式 def format_qwen(messages): formatted |im_start|system\nYou are a helpful assistant.|im_end|\n for msg in messages: if msg[role] user: formatted f|im_start|user\n{msg[content]}|im_end|\n else: formatted f|im_start|assistant\n{msg[content]}|im_end|\n return formatted调整生成参数 不同模型的最佳生成参数可能不同# 通用参数 generation_config { max_new_tokens: 1024, temperature: 0.8, top_p: 0.95, do_sample: True, } # 特定模型的优化参数 model_specific_config { Qwen: {repetition_penalty: 1.05}, Llama: {top_k: 50}, ChatGLM: {num_beams: 1}, }6.3 添加新功能如果你想扩展这个界面的功能这里有一些建议添加对话历史管理import json import os def save_chat_history(messages, filenamechat_history.json): 保存对话历史到文件 with open(filename, w, encodingutf-8) as f: json.dump(messages, f, ensure_asciiFalse, indent2) def load_chat_history(filenamechat_history.json): 从文件加载对话历史 if os.path.exists(filename): with open(filename, r, encodingutf-8) as f: return json.load(f) return []添加模型参数调整界面import streamlit as st # 在侧边栏添加参数调整 with st.sidebar: st.header(模型参数) temperature st.slider( Temperature, min_value0.1, max_value2.0, value0.7, help控制随机性值越高越有创意 ) max_tokens st.slider( 最大生成长度, min_value64, max_value2048, value512, help生成的最大token数 )添加多模型支持# 模型选择 model_choice st.selectbox( 选择模型, [Nanbeige 4.1-3B, Qwen2.5-3B, Llama-3-8B] ) # 根据选择加载不同模型 st.cache_resource def load_model(model_name): if model_name Nanbeige 4.1-3B: return load_nanbeige() elif model_name Qwen2.5-3B: return load_qwen() # ... 其他模型6.4 部署到服务器如果你想让其他人也能访问你的AI助手可以部署到服务器使用Docker部署FROM python:3.10-slim WORKDIR /app COPY requirements.txt . RUN pip install --no-cache-dir -r requirements.txt COPY . . EXPOSE 8501 CMD [streamlit, run, app.py, --server.port8501, --server.address0.0.0.0]使用systemd服务Linux# /etc/systemd/system/nanbeige-chat.service [Unit] DescriptionNanbeige Chat Service Afternetwork.target [Service] Useryourusername WorkingDirectory/path/to/your/app ExecStart/usr/local/bin/streamlit run app.py --server.port8501 Restartalways [Install] WantedBymulti-user.target使用Nginx反向代理server { listen 80; server_name your-domain.com; location / { proxy_pass http://localhost:8501; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection upgrade; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } }7. 总结7.1 项目价值回顾这个Nanbeige 4.1-3B Streamlit WebUI项目展示了如何用简单的技术栈打造出色的用户体验。它的核心价值在于第一证明了Streamlit的潜力。很多人认为Streamlit只能做数据看板但这个项目展示了它完全可以做出媲美专业前端框架的交互界面。关键是要懂CSS要敢于突破默认样式的限制。第二提供了大模型交互的新思路。不是所有AI界面都需要复杂的功能堆砌。有时候极简的设计、流畅的交互、沉浸的体验反而更能让用户专注于对话本身。第三降低了开发门槛。整个项目就一个Python文件依赖库只有四个。这意味着任何Python开发者都能在几分钟内理解、部署、甚至修改这个项目。这种低门槛对于开源项目的推广至关重要。7.2 技术要点总结回顾一下这个项目的关键技术点CSS的:has()选择器实现了动态的左右气泡布局这是整个界面美观的关键多线程流式输出使用TextIteratorStreamer和线程实现了流畅的打字机效果正则表达式处理智能识别和折叠思考过程保持界面清爽纯Python前端没有JavaScript没有复杂构建维护简单响应式设计适配不同屏幕尺寸在手机和电脑上都有良好体验7.3 下一步学习建议如果你对这个项目感兴趣想要深入学习或二次开发我建议初学者可以先按照教程成功部署体验完整流程尝试修改CSS改变颜色、字体、间距等添加一些简单功能比如对话导出进阶开发者可以研究如何适配其他大模型Llama、Qwen、ChatGLM等优化性能比如添加模型缓存、响应加速添加更多功能文件上传、语音输入、多轮对话管理等高级开发者可以重构代码支持插件化功能扩展添加用户认证、多用户支持集成到更大的系统中比如知识库问答、智能客服等7.4 最后的建议这个项目最大的意义不是提供了一个“完美”的界面而是展示了一种可能性用简单的工具也能做出优秀的用户体验。在AI技术快速发展的今天我们往往过于关注模型的性能、参数的数量却忽略了最终用户的使用感受。一个好的界面应该让技术隐形让体验凸显。这个项目在这方面做得很好——它没有炫技没有堆砌功能只是安静地做好一件事让用户和AI的对话更加自然、舒适。希望这个教程能帮助你成功部署这个界面更希望它能激发你创造更好的AI交互体验。技术最终是为人类服务的而好的设计就是让技术更好地服务人类。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2438820.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…