PAR LLAMA:基于Textual的本地AI模型终端界面,整合Ollama与云端API

news2026/5/7 10:23:43
1. 项目概述PAR LLAMA一个为本地AI模型而生的终端界面如果你和我一样厌倦了在浏览器标签页和命令行之间来回切换只为和本地的Ollama模型聊上几句那么PAR LLAMA的出现就像是为这个略显混乱的桌面端AI生态投下了一束光。它不是什么云端服务的网页前端而是一个纯粹为本地大语言模型LLM和主流AI服务API设计的、功能完整的终端用户界面TUI。简单来说它让你能在终端里用一个美观、高效、键盘驱动的界面管理你的所有AI模型并与它们进行对话无论是本地的Llama、Mistral还是远端的GPT-4、Claude。这个项目的核心价值在于“整合”与“专注”。它把Ollama的模型拉取、删除、运行状态监控OpenAI、Anthropic等云服务的API调用以及一个多标签、带历史记录的聊天界面全部塞进了一个基于Textual框架构建的TUI里。这意味着你不再需要记住复杂的ollama run命令参数或者为每个云服务打开不同的网页。一切操作——从选择模型、调整温度参数到上传图片进行多模态对话、管理自定义提示词库——都可以通过直观的界面和丰富的快捷键Slash Commands完成。对于深度依赖终端工作流的开发者、研究人员或者任何追求效率的AI爱好者而言这极大地简化了日常工作流。我最初被它吸引是因为它解决了我的几个痛点我需要同时测试本地微调模型和云端模型的回答差异我需要一个能持久保存对话上下文并且能方便导出为Markdown的工具我还希望有一个统一的地方管理我收集的各种System Prompt模板。PAR LLAMA几乎完美地覆盖了这些场景。它的设计哲学很明确做一个强大、可扩展、且“开箱即用”的终端AI中心。接下来我将带你深入它的世界从安装配置到高级功能分享我这段时间的使用心得和避坑指南。2. 核心架构与设计哲学2.1 基于Textual的现代化TUI体验PAR LLAMA的流畅体验根基在于其选用的技术栈。它没有使用古老的curses库而是构建在Textual之上。这是一个现代的Python TUI框架支持复杂的布局、CSS式的样式定义、异步事件驱动。这直接带来了几个肉眼可见的优势真正的响应式界面调整终端窗口大小时UI元素会自适应重新布局不会错乱。这对于需要同时展示聊天记录、模型列表和侧边栏配置的复杂应用至关重要。丰富的视觉反馈按钮悬停效果、加载动画、流畅的文本流式输出这些在传统TUI中难以实现的效果在PAR LLAMA中都是标配。例如模型回答时的“思考中...”动画以及进度条的平滑更新都提升了交互质感。异步非阻塞操作所有网络请求如调用Ollama API、拉取模型列表都在后台异步进行。这意味着你在等待一个大模型生成回答时依然可以切换标签页、查看历史会话UI不会卡死。这是通过Python的asyncio库深度集成实现的。项目的另一大基石是作者开发的par_ai_core库。这个库抽象了不同AI提供商Ollama, OpenAI, Anthropic等的API差异为PAR LLAMA提供了一个统一的调用接口。当你从界面上切换提供商时底层实际是par_ai_core在帮你处理认证、请求格式和响应解析。这种设计使得增加新的AI提供商变得相对容易也为项目的长期可扩展性打下了基础。2.2 多提供商支持从本地到云端的无缝切换这是PAR LLAMA最强大的特性之一。它并非Ollama的专属前端而是一个AI聚合器。在“选项”Options标签页中你可以配置几乎所有主流AI服务的API密钥和端点。1. 本地王者Ollama深度集成对于Ollama的支持是原生且最完善的。PAR LLAMA能自动发现启动时自动连接本地Ollama服务默认http://localhost:11434。模型全生命周期管理在“站点”Site标签页可以浏览Ollama官方库的所有模型一键拉取^P。在“本地”Local标签页可以查看已下载的模型、删除模型、复制模型以创建新版本甚至基于Modelfile创建自定义模型。实时状态监控在聊天窗口顶部会实时显示当前加载的模型名称以及GPU/CPU内存占用百分比。这个信息极其有用它能直观告诉你模型是否完全载入显存。如果GPU占用不到100%意味着部分层被卸载到了内存推理速度会显著下降这时你可能需要考虑量化模型或升级硬件。2. 云端巨头的API客户端通过配置API Key你可以直接使用OpenAI包括GPT-4系列、GPT-3.5-Turbo等。AnthropicClaude 3系列模型。Google AI (Gemini)Gemini Pro等模型。Groq利用其LPU推理引擎的高速模型。xAIGrok模型。DeepSeek国内的高性价比模型。OpenRouterLiteLLM这两个是AI API聚合平台通过它们可以访问数十家不同提供商的模型实现了“一个密钥访问百家”。设计考量这种多提供商设计的意义在于工作流统一。无论你调用的是本地7B参数的小模型还是云端千亿参数的巨兽你的操作界面、对话历史管理、提示词工程方法都是完全一致的。这便于进行A/B测试比较不同模型在相同问题上的表现。2.3 数据持久化与安全设计所有用户数据都存储在本地的一个独立目录中默认是~/.local/share/parllama或~/.parllama。这个目录结构清晰~/.parllama/ ├── chats/ # 所有聊天会话的JSON历史记录 ├── prompts/ # 用户自定义的提示词模板 ├── themes/ # 自定义主题JSON文件 ├── settings.json # 应用配置API密钥、提供商开关等 └── memory.json # 用户记忆系统的数据这种设计保证了数据的私密性和可移植性。你可以轻松地备份整个目录或者在另一台机器上恢复你的聊天历史和个性化设置。安全提示settings.json文件中会明文保存你配置的API密钥。虽然该文件通常只有用户本人可读但在共享环境或多用户系统中仍需注意该目录的权限设置chmod 700 ~/.parllama。项目本身不会将任何数据上传到远程服务器。3. 从零开始安装与配置详解3.1 环境准备Ollama是基石无论你打算主要使用云端模型还是本地模型我都强烈建议先安装Ollama。它是整个生态的“锚点”也是PAR LLAMA体验最完整的一部分。安装Ollama访问 ollama.com 下载对应操作系统的安装包。安装后在终端运行ollama serve来启动服务。通常它会作为后台服务自动运行。验证安装打开新终端运行ollama list。如果返回空列表或没有报错说明服务运行正常。此时可以尝试拉取一个小模型测试ollama pull llama3.2:1b。Python环境PAR LLAMA需要Python 3.11或更高版本。建议使用pyenv、conda或系统包管理器安装一个较新的Python版本。运行python --version确认。3.2 安装PAR LLAMA推荐使用uv官方推荐了pipx和uv两种安装方式。经过实测我强烈推荐使用uv。它是一个用Rust写的、速度极快的Python包管理器和项目运行器能更好地处理依赖隔离和启动速度。安装uv一行命令# 在Linux/macOS上 curl -LsSf https://astral.sh/uv/install.sh | sh # 安装后重启终端或手动将uv加入PATH对于Windows用户可以使用Powershell安装或者通过包管理器如scoop install uv。使用uv安装PAR LLAMA# 从PyPI安装最新稳定版 uv tool install parllama # 或者从GitHub仓库直接安装开发版可能包含最新功能 uv tool install githttps://github.com/paulrobello/parllama安装完成后直接在终端输入parllama即可启动应用。uv会自动管理虚拟环境你无需手动激活。为什么选择uv速度依赖解析和安装比pip快一个数量级。隔离性每个通过uv tool install安装的工具都拥有独立的虚拟环境互不干扰。可复现性锁定了依赖版本避免了“在我机器上是好的”这类问题。3.3 首次运行与基础配置第一次运行parllama它会创建上文提到的数据目录和配置文件。启动后你会看到一个深色主题的界面主要分为几个标签页Local本地模型、SiteOllama库模型、Chat聊天、Prompts提示词、Options选项等。首要配置连接Ollama如果Ollama运行在非标准端口或远程主机上需要在启动时指定parllama -u http://192.168.1.100:11434 # 连接到局域网内另一台机器的Ollama这个设置会被保存下次启动无需重复指定。配置云端提供商按下CtrlP或点击切换到Options标签页。在Providers区域找到你需要的服务如OpenAI。点击其对应的输入框填入你的API密钥。对于OpenAIBase URL通常保持默认的https://api.openai.com/v1。如果你使用Azure OpenAI或某些代理则需要修改此处。勾选该提供商旁边的复选框以启用它。配置完成后建议重启一次PAR LLAMA。部分提供商的模型列表需要在启动时加载重启能确保所有配置生效。界面个性化切换亮色主题启动时加入-m light参数或是在Options页面的Theme部分选择light模式。自定义主题高级用户可以编辑~/.parllama/themes/par.json文件或创建新的JSON主题文件然后通过-t your_theme_name来应用。4. 核心工作流实战指南4.1 标准聊天流程以Llama 3为例让我们完成一次从零开始的完整对话熟悉核心操作。获取模型启动PAR LLAMA按CtrlS切换到Site标签页。按CtrlR刷新从Ollama官方库获取模型列表。在筛选框Filter Site models中输入llama3。在结果列表中找到llama3你会看到旁边有8B、70B、...等标签代表不同参数量版本。技巧直接点击8B这个蓝色标签筛选框会自动填入llama3:8b。这是快速选择特定版本模型的好方法。将光标移动到该行按下CtrlPPull。终端底部会出现一个进度条显示下载进度。这可能需要几分钟取决于你的网速。开始对话下载完成后按CtrlL切换到Local标签页。你应该能看到llama3:8b出现在列表中。选中该模型按下CtrlC。这会直接跳转到Chat标签页并自动将该模型设置为当前会话的模型。在底部的消息输入框按Tab键可快速聚焦输入你的问题例如“用Python写一个快速排序函数并加上详细注释。”按下Enter。你会看到顶部状态栏显示“Loading model...”然后模型答案开始流式输出。流式输出的速度很快几乎没有延迟感。管理会话多标签按CtrlN可以新建一个聊天标签页。你可以在一个标签页用Llama 3写代码在另一个标签页用GPT-4审核代码方便对比。切换标签使用CtrlPageUp/CtrlPageDown或直接点击顶部标签栏进行切换。更高效的方式是使用Slash命令例如在输入框键入/tab.2直接跳转到第2个标签页。会话配置在Chat标签页按CtrlP可以展开/收起右侧的“Session Config”面板。在这里可以实时切换模型、调整温度Temperature、Top-P等参数无需返回Local或Site页。保存与加载所有对话会自动保存。按CtrlS可以打开“Sessions”面板查看所有历史会话。选中一个历史会话按Enter在当前标签页打开或按CtrlN在新标签页打开。4.2 进阶功能图像对话与记忆系统图像对话多模态PAR LLAMA完美支持Ollama的视觉模型如llava系列。拉取视觉模型在Site页搜索并拉取llava:7b或llava-llama3:8b。在聊天中附加图片你不能直接从图形界面拖拽图片。需要使用Slash命令。语法是/add.image /path/to/your/image.jpg 请描述这张图片。例如/add.image ~/Pictures/cat.png 这只猫是什么品种命令执行后图片的路径和你的提示词会作为一条消息发送。视觉模型会“看到”图片并给出回答。这对于分析图表、解释截图、描述场景非常有用。记忆系统让你的AI记住你这是PAR LLAMA区别于简单聊天前端的一个杀手级功能。它解决了一个核心痛点AI记不住你是谁、你的偏好和过往对话的上下文超出其上下文窗口的部分。打开记忆面板按CtrlM切换到Memory标签页。编辑记忆在中央的大文本框中输入任何你希望AI在每次对话开始时都知道的信息。例如我叫李华是一名后端开发工程师主要使用Go和Python。 我目前正在开发一个微服务项目技术栈是Kubernetes, gRPC和PostgreSQL。 我喜欢直接、有代码示例的回答讨厌冗长的理论阐述。 我的时区是UTC8。启用记忆确保顶部的“Enable Memory”复选框被勾选。效果此后每当你新建一个聊天会话时你的记忆内容会作为第一条“系统”消息自动注入。这意味着你可以问“帮我优化一下昨天提到的那个API接口”而AI会知道“昨天提到的”指的是你记忆中的微服务项目。动态更新记忆你甚至不需要去Memory标签页手动修改。在聊天过程中你可以用AI来帮你更新记忆/remember 我最近开始学习Rust语言。- AI会分析这条信息并将其整合到你的记忆文件中。/forget 我的旧公司名称。- AI会从记忆中移除相关旧信息。/memory.status- 查看当前记忆内容。这个功能将PAR LLAMA从一个单纯的聊天工具转变成了一个具有持久化个性的AI助手。4.3 提示词库与Fabric集成对于经常进行提示词工程的人来说管理一堆system_prompt文本文件是件麻烦事。PAR LLAMA内置了一个提示词库。创建自定义提示词切换到Prompts标签页点击“New”。你可以设置提示词名称、系统指令System Prompt以及可选的初始用户消息。勾选“Send on load”后加载此提示词时会自动发送初始消息非常适合一些固定流程的对话开场。导入Fabric模式Fabric是一个开源的提示词模式收集项目。PAR LLAMA支持直接导入Fabric的.md文件。只需将下载的Fabric模式文件例如extract_wisdom.md放入~/.parllama/prompts/目录然后在Prompts页按CtrlR刷新即可看到。这让你能直接使用社区里千锤百炼的提示词模式如“总结文章核心”、“充当代码评审员”等。使用提示词在Chat标签页按/prompt.然后按Tab键会列出所有可用提示词。选择其中一个它会替换当前会话的系统指令并可能发送初始消息。5. 高级技巧与深度配置5.1 模板执行系统在聊天中运行代码这是一个极具创新性且需要谨慎使用的功能。它允许你在聊天消息中直接执行代码片段。原理与安全当你在一段消息上按下CtrlRPAR LLAMA会提取消息内容根据其内容是否是文件路径、是否包含特定解释器指令创建一个临时脚本文件然后在子进程中执行一个允许列表中的命令如python3,node,bash。执行结果标准输出、错误输出、退出码会作为一条新的AI回复插入到对话中。配置与启用进入Options标签页找到Template Execution区域。勾选Execution enabled。在Allowed commands输入框中定义你允许执行的命令。默认是uv,python3,python,node,tsc,bash,sh,zsh,fish。你可以按需增减例如添加go,rustc。安全模式下方还有可配置的安全模式用于阻止包含危险模式如rm -rf /,sudo的命令执行。默认规则已足够严格非高级用户不建议修改。使用场景示例快速验证代码在讨论一个Python算法时直接把代码贴进去按CtrlR立刻看到运行结果。执行Shell命令消息内容是ls -la ~/.parllama按CtrlR就能看到该目录的文件列表而无需离开应用。数据处理让AI生成一段数据处理脚本然后直接执行看输出。重要警告此功能非常强大但也极其危险。切勿在Allowed commands列表中加入sudo或赋予过高的权限。只添加你完全信任的命令解释器。执行来自不可信来源的AI生成的代码前务必人工审查。5.2 连接远程Ollama与WSL配置连接远程Ollama服务器如果你在另一台性能更强的机器如家用服务器、云主机上运行了Ollama可以让PAR LLAMA连接它。在远程服务器上启动Ollama时需要让它监听所有网络接口OLLAMA_HOST0.0.0.0:11434 ollama serve。注意这会使得Ollama服务暴露在网络上请确保你的防火墙配置正确或使用VPN等安全措施。在运行PAR LLAMA的本地机器上启动时指定远程地址parllama -u http://远程服务器IP:11434。Windows WSL2下的特殊配置这是非常常见的场景——在Windows上使用PAR LLAMA但Ollama安装在WSL2的Linux子系统中。在WSL2中配置Ollama在WSL2的终端里执行export OLLAMA_HOST0.0.0.0:11434然后启动Ollama。这样Ollama会监听所有IP包括Windows主机可以访问的那个虚拟网络IP。找到WSL2的IP在WSL2中运行hostname -I取第一个IP地址。或者更通用的方法是使用grep nameserver /etc/resolv.conf | awk {print $2}这通常会是Windows主机在WSL2网络中的地址如172.xx.xx.1。启动PAR LLAMA在Windows的PowerShell或终端中运行parllama -u http://$(wsl hostname -I | awk {print $1}):11434或者使用解析器方法parllama -u http://$(wsl grep -m 1 nameserver /etc/resolv.conf | awk {print $2}):11434第一次成功后这个URL会被保存以后直接运行parllama即可。5.3 故障排除与性能优化常见问题与解决问题现象可能原因解决方案启动时报连接Ollama失败1. Ollama服务未运行。2. 防火墙阻止了端口11434。3. WSL2中Ollama未监听0.0.0.0。1. 运行ollama serve。2. 检查防火墙设置或尝试curl http://localhost:11434/api/tags。3. 在WSL2中设置OLLAMA_HOST环境变量。云端提供商模型列表为空1. API密钥未填写或错误。2. 网络问题代理、防火墙。3. 需要重启应用。1. 在Options页仔细检查API密钥和Base URL。2. 配置系统代理或检查网络。3. 配置后关闭并重启PAR LLAMA。模型加载慢GPU占用低1. 模型太大显存不足。2. 未使用GPU加速层仅限某些N卡Linux。1. 在Site页选择量化版本如:q4_K_M。2. 确保安装了正确的NVIDIA驱动和CUDAOllama会自动使用。Slash命令不生效1. 输入格式错误。2. 焦点不在输入框。1. 确保以/开头命令正确如/help。2. 按Tab键确保焦点在底部输入框。界面渲染错乱终端模拟器不兼容或字体问题。1. 尝试使用更现代的终端如Windows Terminal, iTerm2, Kitty。2. 使用等宽字体如Cascadia Code,JetBrains Mono。性能优化建议模型量化如果显存紧张在Ollama中优先选择带量化标签的模型如llama3:8b-q4_K_M。这能显著减少内存占用速度损失在可接受范围内。上下文长度在Session Config中不要盲目增大num_ctx上下文长度。更长的上下文会消耗更多内存并降低推理速度。除非必要使用默认值通常4096即可。关闭不需要的提供商在Options页禁用你暂时不用的AI提供商。这可以加快应用启动速度因为不需要初始化它们的客户端。定期清理缓存如果感觉应用变慢可以启动时加上--purge-cache参数清理缓存文件。6. 开发模式与贡献指南PAR LLAMA是一个活跃的开源项目。如果你想贡献代码或者只是想体验最新功能可以切换到开发模式。克隆仓库并设置环境git clone https://github.com/paulrobello/parllama cd parllama # 使用uv创建虚拟环境并安装依赖 make setupmake setup这个目标会调用uv安装所有开发依赖。进入开发模式运行make dev这会以开发模式启动应用并启用热重载Hot Reload。当你修改了源代码尤其是UI相关的Python文件并保存后应用界面会自动刷新无需重启。这对前端调试非常方便。代码质量与提交 项目使用ruff进行代码格式化和 linting使用pyright进行静态类型检查。在提交代码前运行以下命令确保符合规范make pre-commit # 或者安装pre-commit钩子让每次git commit自动检查 uv tool install pre-commit pre-commit install提交Pull Request前请确保所有测试通过并且代码风格一致。个人使用体会PAR LLAMA的代码结构清晰基于Textual的组件化设计使得阅读和修改UI部分相对容易。par_ai_core的抽象层也设计得很好如果你想添加一个新的、小众的AI提供商API参照现有实现如openai_provider.py通常能在半小时内完成一个基础版本。社区的响应也比较及时我在GitHub上提过两个小issue都在一两天内得到了回复或修复。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2591173.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…