ollama部署embeddinggemma-300m:面向初创团队的低成本AI基建方案

news2026/4/9 7:35:36
ollama部署embeddinggemma-300m面向初创团队的低成本AI基建方案对于很多初创团队来说AI能力听起来很美好但落地起来却困难重重。动辄需要云端GPU、复杂的部署流程和昂贵的API调用费用让不少团队望而却步。有没有一种方案能让小团队也能轻松拥有自己的AI能力而且成本可控、部署简单今天要介绍的就是这样一个方案使用ollama在本地部署embeddinggemma-300m模型为你的团队搭建一个低成本、高性能的AI基础设施。embeddinggemma-300m是谷歌推出的开源嵌入模型虽然只有3亿参数但能力却相当出色。它能将文本转换成向量表示帮你实现智能搜索、文档分类、内容推荐等功能。最关键的是它足够小巧能在普通的笔记本电脑甚至配置不错的台式机上流畅运行完全不需要昂贵的专业显卡。接下来我就带你一步步完成部署并展示几个实用的应用场景。1. 为什么初创团队需要自己的嵌入模型在深入技术细节之前我们先聊聊为什么这件事对初创团队特别重要。1.1 成本控制的现实需求对于初创公司每一分钱都要花在刀刃上。使用商业化的AI服务比如OpenAI的Embedding API看起来单价不高但积少成多。假设你的应用每天处理1万次查询每次查询平均100个token按照OpenAI的定价一个月下来就是几百美元。对于还在寻找产品市场契合的团队来说这是一笔不小的开销。而部署自己的embeddinggemma-300m一次性投入后边际成本几乎为零。模型在本地运行没有API调用费用数据也完全掌握在自己手里。1.2 数据隐私与安全很多初创团队处理的是用户数据、商业机密或敏感信息。把这些数据发送到第三方服务进行向量化存在隐私泄露的风险。本地部署意味着你的数据不出公司网络安全性大大提升。1.3 响应速度与稳定性API调用受网络环境影响延迟不稳定。对于需要实时响应的应用比如聊天机器人、搜索功能几十毫秒的延迟都会影响用户体验。本地部署的模型响应时间稳定在毫秒级而且不受外部服务宕机的影响。1.4 定制化与迭代能力当你拥有自己的嵌入模型后可以根据业务数据进行微调让模型更懂你的领域。比如你做的是法律科技可以用法律文书微调模型做的是医疗健康可以用医学文献微调。这种定制化能力是通用API无法提供的。2. 环境准备与ollama快速部署好了理论说完了我们开始动手。整个过程比你想的要简单得多。2.1 系统要求与准备工作首先确认你的设备满足以下最低要求操作系统Windows 10/11、macOS 10.15、LinuxUbuntu 18.04内存至少8GB RAM推荐16GB存储至少2GB可用空间CPU现代多核处理器Intel i5/Ryzen 5或以上可选但推荐如果有NVIDIA GPU4GB显存以上性能会更好不需要专业显卡也能运行CPU版本完全可用只是速度稍慢一些。2.2 一键安装ollamaollama是一个专门用于在本地运行大语言模型的工具它让模型部署变得像安装普通软件一样简单。Windows/macOS用户 直接访问ollama官网下载安装包双击安装即可。Linux用户 在终端中运行以下命令curl -fsSL https://ollama.com/install.sh | sh安装完成后打开终端Windows用户打开PowerShell或CMD输入ollama --version如果看到版本号说明安装成功。2.3 拉取embeddinggemma-300m模型这是最关键的一步但操作极其简单ollama pull embeddinggemma:300m这个命令会自动从ollama的模型库中下载embeddinggemma-300m模型。下载大小约1.2GB根据你的网速可能需要几分钟到十几分钟。下载完成后你可以查看已安装的模型ollama list应该能看到embeddinggemma:300m在列表中。3. 基础使用从零开始体验嵌入能力模型部署好了我们来看看怎么用它。我会从最简单的命令行交互开始逐步深入到编程调用。3.1 命令行快速测试首先我们直接在终端里测试模型的基本功能ollama run embeddinggemma:300m 人工智能是未来的发展方向你会看到输出类似这样[-0.012345, 0.023456, -0.034567, ...] # 一个768维的向量这就是嵌入向量——把一段文本转换成的数学表示。这个向量包含了文本的语义信息相似的文本会有相似的向量。3.2 通过API接口调用对于实际应用我们通常通过API来调用模型。ollama默认在11434端口提供HTTP API服务。启动ollama服务如果还没运行ollama serve然后在另一个终端中用curl测试APIcurl http://localhost:11434/api/embeddings -d { model: embeddinggemma:300m, prompt: 机器学习需要大量的数据 }你会得到一个JSON响应包含嵌入向量和其他元数据。3.3 使用Web UI界面可选如果你更喜欢图形界面ollama也提供了Web UI。访问 http://localhost:11434 就能看到简单的聊天界面。虽然主要设计用于对话模型但也可以用来测试嵌入功能。4. 实战应用为你的业务添加智能搜索光会调用API还不够我们要解决实际问题。下面我以“智能文档搜索”为例展示如何用embeddinggemma-300m构建一个实用的系统。4.1 场景描述假设你的初创公司有很多内部文档产品需求文档、技术方案、会议纪要、客户反馈等。当新员工想了解某个功能时或者产品经理需要查找相关讨论时传统的关键词搜索往往不够精准。我们要构建一个系统用户用自然语言提问比如“我们产品的用户注册流程是怎样的”系统能找出最相关的文档。4.2 完整实现代码下面是一个完整的Python实现代码加了详细注释即使你不是Python专家也能看懂import json import numpy as np from typing import List, Dict import requests from pathlib import Path class DocumentSearchSystem: 基于embeddinggemma-300m的智能文档搜索系统 def __init__(self, ollama_url: str http://localhost:11434): 初始化搜索系统 参数: ollama_url: ollama服务的地址默认本地11434端口 self.ollama_url ollama_url self.model_name embeddinggemma:300m self.documents [] # 存储原始文档 self.embeddings [] # 存储文档的向量表示 def get_embedding(self, text: str) - List[float]: 获取文本的嵌入向量 参数: text: 需要向量化的文本 返回: 768维的浮点数列表 try: response requests.post( f{self.ollama_url}/api/embeddings, json{ model: self.model_name, prompt: text }, timeout30 # 设置超时时间 ) response.raise_for_status() # 检查HTTP错误 result response.json() return result.get(embedding, []) except Exception as e: print(f获取嵌入向量失败: {e}) return [] def add_document(self, document_path: str): 添加文档到搜索系统 参数: document_path: 文档文件路径 try: # 读取文档内容 with open(document_path, r, encodingutf-8) as f: content f.read() # 获取文档的嵌入向量 embedding self.get_embedding(content) if embedding: # 确保获取成功 self.documents.append({ path: document_path, content: content[:200] ... if len(content) 200 else content, # 只存储前200字符用于显示 full_content: content }) self.embeddings.append(embedding) print(f成功添加文档: {document_path}) else: print(f文档向量化失败: {document_path}) except Exception as e: print(f读取文档失败 {document_path}: {e}) def search(self, query: str, top_k: int 5) - List[Dict]: 搜索相关文档 参数: query: 搜索查询自然语言 top_k: 返回最相关的K个结果 返回: 相关文档列表按相关性排序 if not self.documents: return [] # 获取查询的嵌入向量 query_embedding self.get_embedding(query) if not query_embedding: return [] # 计算余弦相似度 similarities [] query_norm np.linalg.norm(query_embedding) for i, doc_embedding in enumerate(self.embeddings): doc_norm np.linalg.norm(doc_embedding) if query_norm 0 and doc_norm 0: # 余弦相似度 向量点积 / (向量模长的乘积) similarity np.dot(query_embedding, doc_embedding) / (query_norm * doc_norm) similarities.append((i, similarity)) # 按相似度排序 similarities.sort(keylambda x: x[1], reverseTrue) # 返回top_k个结果 results [] for idx, similarity in similarities[:top_k]: results.append({ document: self.documents[idx], similarity: float(similarity), # 转换为Python float类型 rank: len(results) 1 }) return results def build_from_folder(self, folder_path: str, extensions: List[str] None): 从文件夹批量添加文档 参数: folder_path: 文件夹路径 extensions: 文件扩展名列表默认为[.txt, .md, .pdf] if extensions is None: extensions [.txt, .md] folder Path(folder_path) if not folder.exists(): print(f文件夹不存在: {folder_path}) return file_count 0 for ext in extensions: for file_path in folder.glob(f**/*{ext}): self.add_document(str(file_path)) file_count 1 print(f从 {folder_path} 添加了 {file_count} 个文档) # 使用示例 if __name__ __main__: # 1. 创建搜索系统实例 search_system DocumentSearchSystem() # 2. 添加示例文档这里用字符串代替文件 # 在实际使用中你可以用 build_from_folder 批量添加 sample_docs [ 我们的产品采用微服务架构每个服务独立部署和扩展。, 用户注册流程包括输入邮箱、验证邮箱、设置密码、完善资料四个步骤。, 技术栈主要使用Python和React数据库使用PostgreSQL。, 每周三下午有产品评审会议讨论新功能和改进。, 客户反馈系统允许用户提交bug报告和功能建议。 ] # 临时保存为文件然后添加 import tempfile import os temp_dir tempfile.mkdtemp() for i, content in enumerate(sample_docs): file_path os.path.join(temp_dir, fdoc_{i}.txt) with open(file_path, w, encodingutf-8) as f: f.write(content) search_system.add_document(file_path) # 3. 执行搜索 query 用户怎么注册账号 results search_system.search(query) # 4. 显示结果 print(f\n搜索查询: {query}) print( * 50) for result in results: print(f\n第{result[rank]}名 (相似度: {result[similarity]:.3f})) print(f内容: {result[document][content]}) print(- * 30) # 清理临时文件 import shutil shutil.rmtree(temp_dir)4.3 代码解读与运行说明这段代码做了几件重要的事情封装了ollama调用get_embedding方法处理了所有HTTP请求细节你只需要传文本进去就能拿到向量。实现了相似度计算使用余弦相似度来衡量向量之间的相似程度这是嵌入模型搜索的标准方法。提供了易用的接口add_document添加文档search执行搜索build_from_folder批量处理接口设计得很直观。考虑了实际使用加了错误处理、超时设置确保系统稳定运行。要运行这个代码你需要确保ollama服务正在运行ollama serve安装Python依赖pip install numpy requests把代码保存为document_search.py运行python document_search.py你会看到类似这样的输出搜索查询: 用户怎么注册账号 第1名 (相似度: 0.892) 内容: 用户注册流程包括输入邮箱、验证邮箱、设置密码、完善资料四个步骤。 ------------------------------ 第2名 (相似度: 0.456) 内容: 客户反馈系统允许用户提交bug报告和功能建议。 ------------------------------ ...最相关的文档排在了第一位相似度分数很高接近1表示非常相似。5. 更多应用场景与实用技巧文档搜索只是冰山一角embeddinggemma-300m还能做很多事情。下面我分享几个对初创团队特别有用的场景。5.1 智能客服问答如果你有客服对话记录或产品FAQ可以用嵌入模型构建智能问答系统class FAQSystem: 基于嵌入模型的智能问答系统 def __init__(self): self.search_system DocumentSearchSystem() def add_qa_pair(self, question: str, answer: str): 添加问答对用问题作为搜索内容 # 这里可以存储到数据库简化起见用列表 self.search_system.add_document_from_text(question, answer) def answer_question(self, user_question: str) - str: 回答用户问题 results self.search_system.search(user_question, top_k1) if results: return results[0][document][answer] return 抱歉我暂时不知道如何回答这个问题。5.2 内容推荐系统如果你的产品有文章、视频或其他内容可以用嵌入模型做个性化推荐def recommend_content(user_interests: List[str], all_contents: List[str]) - List[str]: 基于用户兴趣推荐内容 参数: user_interests: 用户兴趣标签列表 all_contents: 所有可用内容列表 返回: 推荐的内容列表 # 计算用户兴趣的整体向量取平均 interest_vectors [] for interest in user_interests: vector get_embedding(interest) if vector: interest_vectors.append(vector) if not interest_vectors: return [] # 平均向量代表用户的整体兴趣 user_vector np.mean(interest_vectors, axis0) # 计算每个内容与用户兴趣的相似度 recommendations [] for content in all_contents: content_vector get_embedding(content) if content_vector: similarity cosine_similarity(user_vector, content_vector) recommendations.append((content, similarity)) # 按相似度排序返回前N个 recommendations.sort(keylambda x: x[1], reverseTrue) return [content for content, _ in recommendations[:10]]5.3 文本分类与聚类你可以用嵌入模型自动给文档分类或者发现文档之间的隐含关系from sklearn.cluster import KMeans def cluster_documents(documents: List[str], n_clusters: int 5): 对文档进行聚类分析 参数: documents: 文档列表 n_clusters: 聚类数量 返回: 每个文档的聚类标签 # 获取所有文档的向量 vectors [] valid_docs [] for doc in documents: vector get_embedding(doc) if vector: vectors.append(vector) valid_docs.append(doc) if not vectors: return [] # 使用K-means聚类 vectors_array np.array(vectors) kmeans KMeans(n_clustersn_clusters, random_state42) labels kmeans.fit_predict(vectors_array) # 分析每个聚类的主题 clusters {} for i, (doc, label) in enumerate(zip(valid_docs, labels)): if label not in clusters: clusters[label] [] clusters[label].append(doc[:100]) # 只取前100字符 return clusters5.4 性能优化技巧在实际使用中你可能会遇到性能问题。这里有几个优化建议批量处理如果需要处理大量文本不要一条条调用API可以批量处理def batch_embedding(texts: List[str], batch_size: int 10) - List[List[float]]: 批量获取嵌入向量提高效率 embeddings [] for i in range(0, len(texts), batch_size): batch texts[i:ibatch_size] # 这里需要根据ollama的API支持情况调整 # 如果API不支持批量可以用多线程 batch_embeds [get_embedding(text) for text in batch] embeddings.extend(batch_embeds) return embeddings缓存机制相同的文本不需要重复计算向量from functools import lru_cache lru_cache(maxsize1000) def get_embedding_cached(text: str) - List[float]: 带缓存的嵌入向量获取 return get_embedding(text)向量数据库当文档数量很大时比如超过1万用Python列表存储和搜索会变慢。这时候可以考虑使用专门的向量数据库ChromaDB轻量级适合入门Qdrant性能好功能丰富Pinecone云服务免运维6. 常见问题与解决方案在实际部署和使用中你可能会遇到一些问题。这里我总结了一些常见问题和解决方法。6.1 模型运行慢怎么办embeddinggemma-300m在CPU上运行确实需要一些时间。每个请求大概需要0.5-2秒取决于文本长度和CPU性能。解决方案使用GPU如果你有NVIDIA显卡ollama会自动使用GPU加速速度能提升5-10倍。批量处理如前面提到的尽量批量处理文本减少API调用次数。异步处理对于非实时任务可以用异步方式处理不阻塞主流程。缓存结果相同的查询结果缓存起来下次直接使用。6.2 内存不足怎么办embeddinggemma-300m本身不大但如果你要处理大量文档向量存储会占用内存。解决方案使用向量数据库像ChromaDB这样的数据库能高效管理大量向量。定期清理删除不再需要的向量。增量处理不要一次性加载所有文档按需加载。使用磁盘存储如果内存实在紧张可以考虑把向量存到磁盘用内存映射文件访问。6.3 如何评估嵌入质量嵌入模型的效果如何评估这里有几个简单方法def evaluate_embedding_quality(): 简单的嵌入质量评估 # 测试1同义词应该相似 word1 快乐 word2 高兴 vec1 get_embedding(word1) vec2 get_embedding(word2) sim1 cosine_similarity(vec1, vec2) print(f同义词相似度: {sim1:.3f}) # 应该接近1 # 测试2反义词应该不太相似 word3 热 word4 冷 vec3 get_embedding(word3) vec4 get_embedding(word4) sim2 cosine_similarity(vec3, vec4) print(f反义词相似度: {sim2:.3f}) # 应该小于0.5 # 测试3相关但不相同的词 word5 狗 word6 猫 vec5 get_embedding(word5) vec6 get_embedding(word6) sim3 cosine_similarity(vec5, vec6) print(f相关词相似度: {sim3:.3f}) # 应该在0.5-0.8之间6.4 如何处理长文本embeddinggemma-300m有上下文长度限制通常是512或1024个token。对于长文档需要特殊处理def embed_long_text(text: str, max_length: int 500) - List[float]: 处理长文本的嵌入 策略如果文本太长分成块然后取平均 if len(text) max_length: return get_embedding(text) # 分块处理 chunks [] for i in range(0, len(text), max_length): chunk text[i:imax_length] chunks.append(chunk) # 获取每个块的向量 chunk_vectors [] for chunk in chunks: vector get_embedding(chunk) if vector: chunk_vectors.append(vector) if not chunk_vectors: return [] # 取平均作为整个文档的向量 return np.mean(chunk_vectors, axis0).tolist()7. 总结与下一步建议通过今天的分享你应该已经掌握了用ollama部署embeddinggemma-300m的全过程并且看到了它在实际业务中的应用价值。7.1 核心价值回顾让我总结一下这个方案的核心优势成本极低完全本地运行没有持续的API费用硬件要求也不高。部署简单ollama让模型部署变得像安装普通软件一样简单。数据安全所有数据都在本地不出公司网络。响应快速毫秒级响应不受网络波动影响。功能强大能支撑搜索、推荐、分类、聚类等多种AI能力。7.2 给你的具体建议根据你的团队情况我建议这样开始如果你刚刚起步先在一台开发机上部署ollama和embeddinggemma-300m用我提供的文档搜索代码做个原型找一个小而具体的业务场景试水比如客服问答或文档检索如果你已经有了一些数据评估现有业务中哪些环节可以用嵌入模型优化选择一个痛点最明显的场景深度优化考虑引入向量数据库管理大量数据如果你需要更高性能考虑使用GPU加速探索更高效的向量搜索算法考虑模型微调让嵌入更贴合你的业务7.3 资源与延伸学习如果你想深入了解这里有一些资源ollama官方文档了解更高级的部署选项向量数据库学习ChromaDB、Qdrant等工具的使用相似度算法深入研究余弦相似度以外的度量方法模型微调学习如何用你自己的数据微调嵌入模型最重要的是开始行动。选一个最简单的场景用一两天时间搭建原型你会惊讶地发现AI能力离你并不遥远。embeddinggemma-300m就像给你的团队配了一个AI助手它不贵、不挑食、随叫随到。在AI技术快速发展的今天拥有自己的AI基础设施不再是大型公司的专利。小团队也能用低成本的方式享受AI带来的效率提升。从今天开始让你的业务变得更智能吧。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2498718.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…