Clojure本地LLM集成指南:llama.clj从入门到生产部署

news2026/5/6 21:34:31
1. 项目概述如果你是一名Clojure开发者同时对在本地运行大语言模型LLM感兴趣那么llama.clj这个项目很可能就是你一直在寻找的“瑞士军刀”。简单来说它是一个Clojure语言对风靡一时的llama.cpp项目的封装。llama.cpp以其高效的C实现让我们能在消费级硬件甚至是不带独立显卡的笔记本电脑上运行经过量化的LLM模型。而llama.clj所做的就是为Clojure社区打开这扇门让我们能用自己熟悉的函数式思维和REPL驱动的开发流程来探索和集成本地LLM能力。我最初接触这个项目是因为想在一个纯Clojure的数据处理管道中加入一些智能文本生成或分类功能但又不想引入庞大的Python依赖或复杂的HTTP API调用。llama.clj完美地解决了这个问题它让你在JVM环境中直接、高效地调用底层C库整个过程就像使用一个普通的Clojure库一样自然。无论是构建一个智能命令行工具、一个带有离线对话功能的桌面应用还是为一个Web服务提供本地的文本嵌入Embedding计算它都能胜任。接下来我会带你从零开始深入这个项目的每一个核心环节分享我踩过的坑和总结出的最佳实践。2. 核心架构与依赖解析要玩转llama.clj首先得理解它的“三明治”结构。最底层是llama.cpp这个C引擎负责所有重度的模型加载、计算和推理中间层是llama.clj自身它通过Java本地接口JNI和Java原生访问JNA技术为Clojure提供了友好的API最上层才是我们的应用代码。这种设计带来了巨大的灵活性但也意味着我们需要妥善处理本地依赖。2.1 依赖配置的三种策略根据项目文档和我的实践经验引入llama.clj主要有三种方式选择哪一种取决于你的目标平台和部署复杂度。策略一一站式组合依赖推荐给大多数初学者和快速原型这是最省心的方式。你只需要在deps.edn文件中添加一个依赖项它会把llama.clj的Clojure部分和对应平台预编译好的llama.cpp本地库一起打包进来。{:deps {com.phronemophobic/llama-clj-combined {:mvn/version 0.9.0}}}这种方式开箱即用特别适合在macOSApple Silicon或Intel和Linuxx86-64上快速验证想法。它的缺点是库体积会稍大一些因为它包含了本地库。但在这个“存储廉价时间宝贵”的时代这通常是值得的。策略二分离依赖与手动管理本地库适合跨平台或定制化需求如果你需要更精细的控制比如在Windows上使用或者打算链接自己编译的、带有特殊优化如CUDA的llama.cpp库那么可以选择这种方式。首先只引入Clojure部分的依赖{:deps {com.phronemophobic/llama-clj {:mvn/version 0.9.0}}}然后你需要自行提供libllama.soLinux、libllama.dylibmacOS或llama.dllWindows这个共享库文件。如何获取这个库文件就是接下来要讨论的重点。策略三使用预编译的平台特定依赖折中方案llama.clj社区在Clojars上发布了一些预编译的本地依赖。你可以在deps.edn中根据你的平台选择性引入。例如如果你要为macOSApple Silicon和Linuxx86-64两个平台打包应用可以这样写{:deps {com.phronemophobic/llama-clj {:mvn/version 0.9.0} ;; 针对GGUF格式模型的预编译库 com.phronemophobic.cljonda/llama-cpp-gguf-darwin-aarch64 {:mvn/version b7325-6} com.phronemophobic.cljonda/llama-cpp-gguf-linux-x86-64 {:mvn/version b7325-6}}}这种方式比“组合依赖”更灵活你可以精确控制包含哪些平台的支持但需要你手动管理这些本地依赖项。注意关于GGML与GGUF格式项目文档明确指出对旧版GGML格式模型的支持已被弃用deprecated。社区和llama.cpp的主线都已全面转向GGUF格式。GGUF是llama.cpp推出的新一代模型文件格式解决了GGML的一些设计缺陷支持更丰富的模型元数据如特殊的Token、对话模板。因此强烈建议所有新项目都直接使用GGUF格式的模型。后文提到的模型下载和操作也均以GGUF为准。2.2 模型文件从哪里来到哪里去llama.clj本身不提供模型它只是一个“发动机”需要你提供“燃料”——即GGUF格式的模型文件。获取模型主要有两个途径Hugging Face Hub这是目前最大的开源模型社区。你可以直接搜索你感兴趣的模型并找到其GGUF量化版本。例如文档中示例使用的Qwen2-0.5B-Instruct-GGUF就是一个非常适合入门的小模型。在Hugging Face的模型页面通常会有“Files and versions”标签页在里面可以找到各种量化等级如q4_0, q8_0的.gguf文件下载链接。自行转换如果你有PyTorch或Safetensors格式的原始模型可以使用llama.cpp项目自带的convert.py脚本将其转换为GGUF格式。但这需要Python环境和一些额外的步骤对于初学者门槛较高建议先从下载现成的GGUF文件开始。下载模型后一个良好的习惯是建立一个统一的models/目录来存放它们。这样不仅管理方便也便于在代码中通过相对路径引用。3. 从零开始的完整实操指南理论说得再多不如动手跑一遍。下面我将以一个完整的、可复现的流程带你完成第一次本地LLM调用。3.1 环境准备与快速启动首先确保你的系统已经安装了Clojure CLI工具。然后我们创建一个专门的项目目录。# 创建一个项目目录并进入 mkdir my-llama-experiment cd my-llama-experiment接下来创建项目最核心的deps.edn文件。我们采用最推荐的“组合依赖”方式。;; deps.edn {:deps {com.phronemophobic/llama-clj-combined {:mvn/version 0.9.0}}}现在我们来下载一个模型。按照文档示例我们选择Qwen2-0.5B-Instruct这个超小模型它只有约0.5GB下载快对硬件要求极低非常适合测试。# 创建模型存储目录 mkdir -p models # 下载模型到该目录 (cd models curl -L -O https://huggingface.co/Qwen/Qwen2-0.5B-Instruct-GGUF/resolve/main/qwen2-0_5b-instruct-q4_0.gguf)这个命令会在models目录下得到一个名为qwen2-0_5b-instruct-q4_0.gguf的文件。这里的q4_0是一种4位整数量化方式能在几乎不损失精度的情况下将模型大小和内存占用减少到原来的约1/4。3.2 首次运行命令行交互llama.clj提供了一个便捷的主函数允许你直接从命令行运行模型。这是验证整个环境是否就绪的最佳方式。clojure -M -m com.phronemophobic.llama models/qwen2-0_5b-instruct-q4_0.gguf What is the capital of France?执行这条命令后你会看到控制台开始输出日志然后模型会思考并生成答案“Paris”。恭喜你你的第一个本地LLM程序运行成功了这个简单的命令背后库完成了加载模型、创建上下文、编码提示词、执行推理、解码输出等一系列复杂操作。3.3 在REPL中深入探索命令行方式适合一次性任务但真正的威力在于REPL交互式编程环境。让我们在Clojure REPL中与模型进行更灵活的交互。首先启动一个REPL。你可以使用你喜欢的编辑器集成环境或者直接用命令行clojure -M:repl在REPL中我们首先需要引入核心命名空间并加载模型。(require [com.phronemophobic.llama :as llama]) ;; 定义模型路径 (def model-path models/qwen2-0_5b-instruct-q4_0.gguf) ;; 加载模型。这是一个比较耗时的操作模型会被加载到内存中。 ;; :gpu-layers参数表示将多少层模型卸载到GPU如果有的话0表示纯CPU运行。 (def model (llama/load-model model-path {:gpu-layers 0})) ;; 创建一个推理上下文Context。上下文保存了推理过程中的状态比如KV缓存。 ;; :seed设置随机种子保证可复现性。:n-threads设置使用的CPU线程数。 (def ctx (llama/create-context model {:seed 42, :n-threads 4}))现在我们可以进行文本补全了。llama/generate函数是核心它接受上下文、提示词和一系列生成参数。;; 简单的文本生成 (let [prompt Once upon a time, in a land far away,] (llama/generate ctx prompt {:max-tokens 50}))你会得到一段由模型续写的故事开头。:max-tokens参数限制了生成的最大Token数量防止生成过长内容。3.4 实现对话式交互对于指令微调Instruct模型直接使用上面的方式可能得不到最佳的对话效果因为它们通常期望一种特定的对话格式比如|im_start|user\n...|im_end|。llama.clj提供了llama.chat命名空间来简化这个过程。(require [com.phronemophobic.llama.chat :as chat]) ;; 应用模型自带的聊天模板 (def chat-prompt (chat/apply-chat-template model :qwen2 ;; 指定模型家族库会自动匹配模板 [{:role :user, :content Explain quantum computing in simple terms.}])) ;; 此时chat-prompt是一个已经格式化为模型期望对话格式的字符串。 ;; 使用格式化后的提示词进行生成 (llama/generate ctx chat-prompt {:max-tokens 200})apply-chat-template函数是关键它读取模型元数据中的模板信息将我们结构化的对话历史角色和内容转换成模型能理解的文本。目前库支持llama2,llama3,qwen2,mistral等多种常见模型的模板。如果你的模型不在支持列表你可能需要查阅其文档手动构造提示词。4. 高级配置与性能调优当基本功能跑通后我们自然会关心如何让它跑得更快、更好、更稳定。这部分涉及大量的参数调优是区分“能用”和“好用”的关键。4.1 关键生成参数详解llama/generate函数的选项字典第三个参数是控制生成行为的核心。以下是一些最常用且重要的参数:max-tokens生成的最大Token数。必须设置否则生成可能不会停止。:temperature默认0.8控制随机性的“温度”。值越高如1.2输出越随机、有创意值越低如0.2输出越确定、保守。对于需要事实准确性的任务如问答建议调低0.1-0.5对于创意写作可以调高0.7-1.0。:top-p默认0.95核采样Nucleus Sampling参数。它从累积概率超过p的最小Token集合中随机采样。通常与:temperature配合使用共同控制多样性。:repeat-penalty默认1.1重复惩罚系数。大于1.0时会降低已出现Token的概率有效减少重复和循环。如果发现模型总在重复句子可以适当提高此值如1.2。:seed随机数种子。设置一个固定的值可以确保每次生成的结果相同便于调试和复现。:n-threads用于计算的CPU线程数。默认会使用系统所有可用线程但在某些共享环境的服务器上你可能需要手动限制以避免影响其他服务。一个针对代码生成任务的参数配置示例(llama/generate ctx Write a Clojure function to calculate factorial. {:max-tokens 300 :temperature 0.1 ; 代码需要确定性 :top-p 0.9 :repeat-penalty 1.2 ; 避免重复的函数定义 :seed 12345})4.2 利用硬件加速纯CPU推理虽然方便但速度较慢。llama.cpp支持多种后端加速llama.clj通过底层的本地库也能受益。macOS Metal 后端对于Apple Silicon (M1/M2/M3) MacMetal GPU加速能带来数倍的性能提升。如果你使用预编译的依赖它可能已经包含了Metal支持。如果是本地编译需要在CMake命令中加上-DGGML_METAL_EMBED_LIBRARYON。使用时在load-model的选项中设置GPU卸载的层数;; 尝试将所有模型层卸载到GPU。如果模型太大或GPU内存不足库会自动回退到部分卸载。 (def model (llama/load-model model-path {:gpu-layers -1}))CUDA/cuBLAS 后端Linux/Windows with NVIDIA GPU这是获得最强加速的途径。但如前所述预编译库通常不包含CUDA支持需要你自行编译llama.cpp。编译步骤大致如下git clone https://github.com/ggerganov/llama.cpp cd llama.cpp git checkout b7325 # 确保与llama.clj兼容的版本 mkdir build cd build # 关键开启CUDA支持 cmake .. -DBUILD_SHARED_LIBSON -DLLAMA_CUBLASON cmake --build . --config Release编译成功后在build/bin/目录下会生成libllama.soLinux或llama.dllWindows。你需要让JVM能找到这个库。有两种方式将其复制到系统的库路径下。推荐在启动JVM时通过-Djna.library.path指定路径。这可以通过在deps.edn中配置别名实现{:aliases {:cuda {:jvm-opts [-Djna.library.path/path/to/your/llama.cpp/build/bin]}}}然后使用clojure -M:cuda ...来运行你的程序。加载模型时同样使用{:gpu-layers -1}来启用GPU加速。实操心得GPU层数设置-1表示尝试卸载所有层。但如果模型太大GPU内存会爆掉Out of Memory。一个更稳健的做法是设置一个具体的层数如:gpu-layers 32然后观察任务管理器中GPU内存的占用逐步调整到一个既能加速又不溢出的值。对于7B参数模型q4_0量化在8GB显存的GPU上通常可以设置20-40层。4.3 流式输出与中断处理默认的generate函数会一次性返回完整结果。对于生成长文本的场景我们更希望看到流式的、逐词或逐句的输出这能提升用户体验也允许用户中途停止生成。llama.clj提供了回调机制来实现流式生成。(defn stream-generate [ctx prompt options] (llama/generate ctx prompt (assoc options :token-callback (fn [token-id token] ;; token是解码后的字符串片段 (print token) ; 逐Token打印实现流式效果 (flush) ;; 如果想支持用户中断可以在这里检查某个标志位 ;; 如果返回:halt生成会停止 :continue)))) ;; 调用 (stream-generate ctx Tell me a long story about a robot. {:max-tokens 500})这个:token-callback函数在每个新Token被解码后调用。你可以在这里实现将内容发送到前端、更新进度条或者检查一个原子atom布尔值来判断用户是否点击了“停止”按钮。如果回调函数返回:halt关键字生成过程将立即终止。5. 常见问题排查与实战技巧在实际使用中你几乎一定会遇到各种问题。下面是我总结的一些典型问题及其解决方案。5.1 模型加载失败症状执行load-model时抛出异常提示找不到符号symbol或无法加载库。排查步骤检查模型路径确保路径是绝对路径或相对于当前工作目录的正确相对路径。在REPL中当前目录可能和你想的不一样使用(System/getProperty user.dir)查看。检查模型格式确认你下载的是GGUF格式的文件而不是旧的GGML或PyTorch的.bin文件。用file命令Linux/macOS或查看文件扩展名确认。检查本地库兼容性如果你是自己编译的llama.cpp请确认编译的commit版本与llama.clj兼容文档指出基于b7325版本。版本不匹配是常见错误。检查JNA库路径如果使用自定义本地库确保-Djna.library.path正确指向了包含libllama.so/.dylib/.dll的目录并且JVM有权限读取。5.2 生成速度慢或内存占用高症状推理速度极慢或者程序占用内存远超模型文件大小。优化建议量化等级使用更低比特的量化模型。q4_0比q8_0更快、更省内存但精度略有损失。q2_k更极端。根据任务在速度和质量间权衡。上下文长度create-context时的:n-ctx参数决定了最大上下文窗口。如果不需要处理长文本不要将其设置得过大如默认的2048。更小的上下文占用更少的KV缓存内存。批处理大小load-model的:n-batch参数控制前向传播的批处理大小。在内存允许的情况下适当增大如512可以加速处理长提示词但会增加内存开销。CPU线程调整create-context的:n-threads。通常设置为物理核心数在共享环境或容器中可能需要调低。启用GPU如前所述这是最有效的加速手段。5.3 生成质量不佳重复、胡言乱语、不遵循指令症状模型输出大量重复内容、无关字符或者完全忽略你的指令。调参技巧调整:repeat-penalty这是解决重复问题的首选参数。从1.1逐步提高到1.3观察效果。降低:temperature过高的温度会导致输出过于随机和混乱。对于事实性任务尝试0.1到0.5的范围。检查提示词格式对于指令模型提示词格式错误是导致模型表现失常的最常见原因。务必使用chat/apply-chat-template或严格按照模型卡片Model Card要求的格式构造提示词。一个错误的换行符或标签都可能导致模型“精神错乱”。使用“系统提示词”System Prompt许多指令模型支持系统提示词来设定模型的行为角色。在apply-chat-template的对话历史中第一条消息可以是{:role :system, :content You are a helpful assistant.}。5.4 在生产环境部署的考量如果你想将基于llama.clj的服务部署到服务器还需要考虑以下几点内存管理长时间运行的JVM进程可能会产生内存碎片。对于需要频繁加载/卸载不同模型的场景要警惕本地内存Native Memory泄漏。考虑定期重启进程或者使用单独的微服务来托管模型通过RPC调用。并发安全llama.clj的上下文ctx对象不是线程安全的。每个并发请求应该拥有自己独立的上下文或者使用一个上下文池但访问时需要加锁。更好的模式是每个模型实例配备一个专用的工作线程请求通过队列发送到该线程处理。资源限制在Docker容器中运行时注意通过-m参数限制容器总内存要预留出JVM堆内存和本地模型内存的空间。同时使用taskset或docker --cpuset-cpus来绑定CPU核心可以减少缓存抖动提升性能。监控与日志集成监控工具跟踪模型加载时间、单次推理延迟、Token生成速度、GPU内存使用率等关键指标。这有助于性能分析和容量规划。6. 超越基础嵌入计算与会话管理除了文本生成llama.clj还暴露了llama.cpp的其他强大能力。6.1 计算文本嵌入向量嵌入Embedding是将文本转换为高维向量的过程是语义搜索、聚类、推荐等应用的基础。llama.clj提供了简单的API来计算嵌入。(require [com.phronemophobic.llama.embedding :as emb]) ;; 假设model和ctx已经加载 (def text-vec (emb/encode ctx The quick brown fox jumps over the lazy dog.)) ;; text-vec 是一个float数组代表了这句话的语义向量。 (println (count text-vec)) ; 打印向量的维度例如 4096 ;; 你可以计算两个文本的余弦相似度 (def vec1 (emb/encode ctx I love programming in Clojure.)) (def vec2 (emb/encode ctx Functional programming with Lisp is great.)) (defn cosine-similarity [a b] (let [dot-product (reduce (map * a b)) norm-a (Math/sqrt (reduce (map #(* % %) a))) norm-b (Math/sqrt (reduce (map #(* % %) b)))] (/ dot-product (* norm-a norm-b)))) (println (cosine-similarity vec1 vec2)) ; 值越接近1语义越相似注意用于嵌入的模型最好是专门在嵌入任务上训练过的如bge-small,nomic-embed等而不是通用的对话模型。通用模型生成的嵌入质量可能不高。6.2 会话状态与多轮对话对于多轮对话我们需要维护历史记录。llama.clj底层支持会话Session状态但目前API尚未完全暴露在Roadmap中。我们可以手动实现一个简单的版本。(defn chat-with-history [ctx system-prompt user-messages] (let [conversation (into [{:role :system :content system-prompt}] user-messages) formatted-prompt (chat/apply-chat-template model :llama3 conversation) ; 假设是Llama3模型 response (llama/generate ctx formatted-prompt {:max-tokens 200})] response)) ;; 使用示例 (def ctx (llama/create-context model {:seed 123})) ;; 第一轮 (def history [{:role :user :content Hello!}]) (def reply1 (chat-with-history ctx You are a pirate. history)) (println AI: reply1) ;; 将AI回复加入历史 (def history2 (conj history {:role :assistant :content reply1})) ;; 第二轮基于之前的历史 (def history3 (conj history2 {:role :user :content Tell me more about your ship.})) (def reply2 (chat-with-history ctx You are a pirate. history3)) (println AI: reply2)这种手动管理历史的方式虽然直观但效率不高因为每次都需要重新编码整个对话历史。未来的会话API将允许复用之前的KV缓存大幅提升多轮对话的效率。经过以上几个章节的拆解你应该已经对llama.clj从入门到进阶有了全面的了解。从依赖配置、模型获取到基础调用、高级调优再到问题排查和生产实践本地LLM集成不再是黑盒。它为我们Clojure开发者提供了一个强大而优雅的工具让我们能在JVM生态中无缝地利用前沿的AI能力。剩下的就是发挥你的想象力去构建那些有趣的应用了。如果在实践中遇到文档未覆盖的古怪问题不妨去项目的GitHub仓库提交Issue开源社区的协作正是这样推动工具不断完善的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2589435.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…