Web 3.0中AI与边缘计算融合:从反洗钱到去中心化存储的实践

news2026/5/9 23:21:29
1. 项目概述当AI与边缘计算在Web 3.0相遇最近和几个做区块链安全的朋友聊天大家不约而同地提到了一个趋势单纯靠链上规则和中心化审计来保障Web 3.0生态的安全与效率已经越来越吃力了。无论是层出不穷的洗钱新手法还是中心化存储带来的单点故障和数据主权风险都在倒逼我们去寻找更底层的解决方案。正是在这个背景下“AI边缘计算”这个组合开始从实验室和论文里走出来真正落地到Web 3.0的土壤里。这个项目标题“Web 3.0中AI与边缘计算的应用从反洗钱到去中心化存储”听起来有点宏大但拆解开来核心就是两件事用智能化的手段解决信任问题用分布式的架构解决效率与安全问题。反洗钱AML是Web 3.0世界合规与信任的“守门员”而去中心化存储则是数据主权与可用性的“基石”。过去这两件事可能依赖不同的技术栈和团队但现在AI和边缘计算提供了将它们串联起来的可能性。AI尤其是机器学习和深度学习模型擅长从海量、高维、非结构化的数据中识别模式、预测风险。在反洗钱场景里它不再是简单地匹配黑名单地址而是能分析交易图谱中的异常行为模式比如识别“拆弹”Smurfing将大额交易拆分成多笔小额交易或“混币器”Mixer的复杂资金流向。而在去中心化存储网络中AI可以优化数据的分片、冗余和检索策略预测节点的可靠性甚至自动修复损坏的数据块。边缘计算则把计算和决策能力从遥远的云端数据中心推到了网络边缘靠近数据产生和消费的地方。对于反洗钱这意味着交易验证和风险初筛可以在用户钱包、节点客户端甚至硬件钱包层面实时进行无需将所有敏感交易数据上传到中心服务器既保护了隐私又降低了延迟。对于去中心化存储边缘节点如个人用户的NAS、闲置的服务器可以贡献存储和算力形成一个真正由用户共建、共治、共享的网络避免了中心化云服务商的控制和审查。所以这个项目的核心价值在于探索如何将这两项前沿技术深度融合为Web 3.0构建一个更智能、更健壮、也更隐私友好的底层基础设施。它不仅仅是技术上的叠加更是一种范式上的转变从“链上记录链下处理”到“边缘感知智能协同”。接下来我会从设计思路、核心技术、实操要点到常见问题一步步拆解这个充满潜力的技术组合。2. 整体架构设计一个分层协同的智能边缘网络要落地“AI边缘计算”服务于Web 3.0我们不能把AI模型生硬地塞进每个钱包或者让边缘节点盲目地跑复杂算法。一个可持续、可扩展的架构至关重要。经过多次推演和原型验证我认为一个分层协同的架构是目前最务实的选择。这个架构的核心思想是责任分离能力下沉协同决策。2.1 三层架构模型解析整个系统可以抽象为三层边缘感知层、智能协同层和全局共识层。每一层都有其明确的职责和最适合的技术栈。第一层边缘感知层。这是直接与用户和链上交互的“神经末梢”。主要包括用户的钱包客户端、轻节点、物联网设备以及参与去中心化存储的个人节点。这一层的核心能力是轻量级推理和本地数据预处理。例如一个钱包应用在发起一笔交易前可以调用一个本地运行的、经过压缩和优化的微型AI模型如使用TensorFlow Lite或ONNX Runtime对交易对手方地址、金额、Gas费用模式进行毫秒级的风险初筛。这个模型不需要特别复杂它的目标是快速过滤掉明显异常的交易并向用户发出预警而不是做出最终裁决。同时对于去中心化存储节点这一层负责执行基础的数据分片、加密和本地冗余校验。注意在边缘层部署AI模型首要考虑的是模型大小和推理速度。一个动辄几百MB的模型是不现实的。通常需要使用模型剪枝、量化、知识蒸馏等技术将模型压缩到10MB甚至更小同时保证关键场景下的准确率损失在可接受范围内例如召回率下降不超过5%。第二层智能协同层。这是系统的“大脑”和“中枢神经”。它由一系列分布式的、专门化的AI服务节点组成这些节点可能由社区、DAO或者专业的服务提供商运营。它们不直接处理用户交易而是接收来自边缘层的、经过脱敏和加密的聚合数据或复杂案例。例如当多个边缘节点都报告了某个地址关联模式的轻度可疑信号时这些信号会被加密上传到协同层。协同层运行着更复杂、更全面的AI模型如时空图神经网络STGNN用于分析跨链、跨时间的全局资金流动图谱识别更隐蔽的洗钱团伙或智能合约漏洞利用模式。对于存储网络协同层负责运行存储证明Proof of Storage的验证算法、优化数据分布策略并利用AI预测节点的离线概率动态调整数据冗余度。第三层全局共识层。这就是区块链本身如以太坊、波卡或其他Layer 1/Layer 2网络。它的角色是锚定信任和最终仲裁。智能协同层产生的关键结论例如一个被高度确认为恶意的地址名单、一份存储证明的有效性验证结果可以以零知识证明ZKP或乐观验证Optimistic Verification的方式提交到链上形成不可篡改的记录。这样既利用了AI的智能分析能力又继承了区块链的信任根基。链上的智能合约可以根据这些上链的“证据”自动执行惩罚如冻结资产或激励如发放存储奖励。2.2 数据流与隐私保护设计在这个架构中数据流的设计必须将隐私保护置于首位。我们绝不能为了反洗钱而要求用户公开所有交易细节那将违背Web 3.0的隐私精神。我们的方案是采用“本地计算加密聚合可验证推断”的流程。以反洗钱为例本地特征提取用户在边缘设备钱包上本地分析自己的交易历史提取出非敏感的交易特征向量例如交易频率变化率、交互合约类型的熵值、平均交易金额的Z-score这些特征本身不暴露具体的交易对手和金额。同态加密或安全多方计算MPC将加密后的特征向量上传至智能协同层的节点。协同层的AI模型可以在密文状态下进行聚合分析或者通过MPC协议多个服务节点协同计算在不暴露任何单个用户原始数据的情况下得出全局风险模式。零知识证明验证当协同层判断某个地址风险极高时可以生成一个零知识证明证明“运行某个公开的AI模型对某些加密输入进行处理后得到了高风险结论”这一事实而无需透露输入数据本身。这个证明可以被提交到全局共识层供任何人验证。对于去中心化存储隐私同样关键。数据在上传前必须在用户侧完成端到端加密。AI优化的存储策略如将数据分片存储在哪几个节点可以基于节点的公开元数据如在线时长、地理位置、存储价格和加密数据的哈希值来制定而无需知晓数据内容。3. 核心技术点深度剖析理解了整体架构我们再来深入看看支撑这个系统的几个核心技术点。它们不是孤立存在的而是在架构中相互配合。3.1 面向边缘设备的轻量化AI模型在资源受限的边缘设备上运行AI模型是最大的挑战之一。我们不可能把用于服务器端的百亿参数模型直接搬过来。这里的关键技术是模型压缩与加速。模型剪枝是最直观的方法。通过移除神经网络中冗余的权重或神经元可以大幅减小模型尺寸。我们常用的是结构化剪枝比如直接剪掉整个卷积核或注意力头这样压缩后的模型能更好地兼容现有的硬件和推理框架减少部署难度。在反洗钱交易特征模型中我们发现经过剪枝模型大小减少了70%而关键的风险识别召回率仅下降了2.3%。量化是将模型权重和激活值从高精度如FP32转换为低精度如INT8甚至INT4的过程。这能显著降低内存占用和计算能耗。TensorRT和OpenVINO等工具对量化有很好的支持。实践中我们需要小心处理量化带来的精度损失特别是对于模型中数值范围较大的层。一种策略是对模型进行量化感知训练在训练阶段就模拟量化过程让模型提前适应低精度计算从而在部署时获得更好的效果。知识蒸馏是另一个强大的工具。我们训练一个庞大而精确的“教师模型”在中心服务器上然后用它来指导训练一个轻量级的“学生模型”。学生模型通过学习教师模型的输出软标签和内部特征表示能在参数少得多的情况下达到接近教师的性能。我们曾用一个仅有教师模型1/10大小的学生模型在交易异常检测任务上达到了教师模型95%的准确率。除了模型本身推理引擎的选择也至关重要。对于移动端和IoT环境TensorFlow Lite和PyTorch Mobile是主流选择。对于性能要求更高的场景如网关级别的边缘服务器可以考虑使用NVIDIA的TensorRT或Intel的OpenVINO它们能针对特定硬件进行深度优化获得数倍的推理速度提升。3.2 去中心化存储网络中的AI优化策略去中心化存储网络如IPFS/Filecoin、Arweave、Storj等其核心挑战在于如何高效、可靠、低成本地存储和检索数据。AI可以在其中扮演“智能调度员”和“健康预测员”的角色。智能数据分片与放置策略传统的存储网络可能随机或基于简单规则如地理位置放置数据分片。AI模型可以学习网络的历史状态数据包括各节点的在线稳定性、带宽波动、存储成本变化以及区域性的网络故障模式。通过强化学习算法AI可以动态优化数据分片的放置策略。例如预测未来24小时内某个区域节点离线概率会升高就提前将该区域存储的数据分片复制到其他更稳定的区域。我们的模拟实验显示这种基于AI预测的动态放置策略可以将数据可用性Data Availability在波动网络环境下提升15%以上。基于机器学习的存储证明PoS优化存储证明是去中心化存储网络验证节点确实存储了数据的核心机制但频繁的验证会产生大量网络开销。AI可以用于预测哪些节点更可能作恶或失效从而对高风险节点进行更频繁的抽查对长期稳定的节点则降低验证频率。这类似于信用评分系统能在保证安全的前提下显著降低全网的共识开销。我们可以使用节点的历史行为数据如证明提交准时率、成功挑战/被挑战记录来训练一个分类模型实时评估节点的“可信度分数”。数据修复与冗余的自动化管理当系统检测到某个数据分片因节点下线而冗余度不足时传统做法是触发一个标准的修复流程。AI可以介入这个过程不仅快速定位可用的目标节点还能根据当前网络状况和成本在“修复速度”、“修复成本”和“新节点的可靠性”之间做出最优权衡。例如是选择三个成本较低但带宽一般的节点还是选择两个成本高但带宽充裕的节点AI调度器可以实时计算给出推荐方案。3.3 隐私计算技术的集成如前所述隐私是Web 3.0的基石。在AI处理过程中保护用户数据隐私需要依赖密码学前沿技术。安全多方计算MPC允许多个参与方共同计算一个函数而每个参与方除了自己的输入和最终输出外对其他方的输入一无所知。在反洗钱协同分析场景中多个机构如不同交易所的风控节点可以在不共享各自用户交易明细的情况下联合训练一个风险识别模型或者共同判断某个地址是否涉及跨平台的洗钱行为。MPC的缺点是计算和通信开销较大但随着算法的优化和硬件加速它在特定场景下已变得可行。同态加密HE允许在加密数据上直接进行计算得到的结果解密后与对明文数据进行同样计算的结果一致。这意味着我们可以将加密后的用户交易特征发送到AI服务节点节点在密文上完成模型推理返回加密的“风险评分”只有用户自己可以解密查看。全同态加密目前性能代价依然很高但部分同态加密如支持加法和乘法已可用于一些特定的聚合统计和简单模型。零知识证明ZKP在这里的应用更为巧妙。它不仅可以用于验证链上声明还可以用于验证AI推理过程的正确性。即AI服务提供者可以生成一个ZKP证明“我确实用某个公开的、未经篡改的模型对给定的输入或输入的承诺进行了计算得到了某个输出”而无需透露输入数据或模型参数。这为“可验证的AI”打开了大门解决了AI模型本身可能作恶或出错的问题。zk-SNARKs和zk-STARKs是两种主流方案选择时需要权衡证明生成速度、验证速度和证明大小。4. 反洗钱AML场景的实操实现理论讲了很多现在我们聚焦到一个具体场景如何利用上述架构和技术构建一个Web 3.0原生的智能反洗钱系统。我会以一个简化但完整的流程来说明。4.1 边缘端轻量级风险信号采集用户的钱包如MetaMask插件或移动端App需要集成一个轻量级的风险检测插件。这个插件包含以下组件本地特征提取器这是一个固定的代码逻辑不是AI模型。它会从用户本地的交易历史只读访问中提取一组预设的特征。例如tx_frequency_1h: 过去1小时交易次数。avg_value_usd: 过去24小时平均交易价值美元。contract_interaction_diversity: 交互过的唯一智能合约地址数量。time_of_day_entropy: 交易时间分布的熵值是否总在固定时间交易。gas_price_ratio: 当前交易设置的Gas价格与网络平均值的比率。 这些特征被归一化后形成一个特征向量。微型风险评估模型这是一个经过深度压缩和量化的二分类模型如小型的神经网络或梯度提升树。它接收特征向量输出一个0到1之间的本地风险分数。这个模型由智能协同层定期更新和下发通过去中心化存储网络或P2P协议。模型更新时会附带一个由协同层用私钥签名的哈希钱包端用公钥验证确保模型来源可信且未被篡改。本地决策与用户交互钱包根据本地风险分数设定阈值。例如分数低于0.3正常放行分数在0.3到0.7之间向用户弹出警示“该交易模式与常见风险行为有相似之处请确认收款地址无误。”分数高于0.7强烈警告并建议用户延迟或取消交易。所有计算和决策都在本地完成原始交易数据永不离开用户设备。4.2 协同层全局威胁情报分析与模型训练智能协同层由一系列节点组成它们执行更复杂的任务加密数据聚合接收来自边缘端上传的、经过同态加密的聚合统计数据如某个时间窗口内全网出现高频小额转账特征的地址数量分布。或者通过MPC协议多个节点协同计算全局的交易图聚类系数以发现潜在的洗钱社群。复杂模型推理运行大型的图神经网络模型分析公开的链上数据所有交易都是公开的。例如构建一个以地址为节点、交易为边的巨型图利用图嵌入技术识别异常子图结构。这些分析结果会生成全局的威胁情报如最新的混币器地址列表、疑似钓鱼合约的特征模式等。模型持续训练与下发基于最新的威胁情报和在隐私保护前提下聚合的匿名化特征协同层定期重新训练边缘端的微型模型。训练完成后将新模型和对应的验证签名发布到去中心化存储网络如IPFS并广播一个模型更新事件到区块链上。边缘钱包监听这个事件自动从IPFS拉取并验证新模型。4.3 链上层信誉锚定与自动化执行区块链在这里扮演最终裁决和激励协调的角色。信誉/风险状态上链对于被协同层高度确信的恶意地址协同层节点可以共同签名一份“风险报告”并将其哈希值存储到智能合约中。这份报告本身包含详细的分析证据可以存储在去中心化存储网络如Arweave上确保其不可篡改和可追溯。DApp或交易所可以查询该合约获取地址的风险状态。基于ZK的验证为了提升可信度协同层在发布关键结论时可以附上一个零知识证明证明该结论是依据某个公开的、共识认可的分析规则或模型哈希得出的。任何验证者都可以低成本地验证这个证明的有效性而无需信任协同层节点本身。自动化合规合约DeFi协议可以集成这些链上风险状态。例如一个借贷合约可以设定规则如果借款人的地址被标记为高风险则提高其抵押率或禁止其借款。这一切通过智能合约自动执行实现了去中心化的合规风控。实操心得在构建这个流程时最大的坑在于“冷启动”问题。初期边缘模型因为缺乏训练数据准确率很低可能导致大量误报用户体验极差。我们的解决方案是采用“混合模式”启动初期边缘模型只作为一个辅助提示主要依赖一个可选的、由用户授权后将匿名化特征上传参与的“安全模式”。参与安全模式的用户会获得一定的代币激励。随着参与用户增多模型得以快速迭代优化最终过渡到全量部署。另外模型更新的频率需要谨慎设计太频繁会导致网络负载和用户流量消耗太慢则无法应对快速变化的攻击手段。5. 去中心化存储场景的实操实现现在我们把视角切换到去中心化存储网络。如何让AI赋能使其更智能、更可靠5.1 AI驱动的节点选择与数据布局假设我们正在构建一个类似Filecoin但更智能的存储网络。用户上传文件时客户端边缘会执行以下步骤文件预处理与分片客户端对文件进行加密然后使用纠删码如Reed-Solomon编码将文件分成n个数据分片并生成m个冗余校验分片总共nm个分片。这样只要任意n个分片可用就能恢复原文件。节点画像查询客户端连接到一个或多个智能协同层的“节点调度服务”。该服务维护着一个实时更新的节点画像数据库。画像数据来源于链上数据节点的质押情况、历史存储证明成功/失败记录、在线时长承诺。链下指标通过分布式监控节点探测的网络延迟、带宽、历史可靠性过去30天的宕机统计。市场数据节点的存储报价、地理位置。 这些数据被输入到一个AI模型中如梯度提升树或深度神经网络该模型为每个节点预测一个综合的“服务质量分数”和未来一段时间的“可用性概率”。智能布局规划客户端告诉调度服务它需要存储nm个分片希望达到的可用性目标如99.99%以及可能的地理位置偏好如“至少3个分片在不同大洲”。调度服务中的AI优化器可能采用遗传算法或强化学习会基于节点画像从全球节点池中选出一组最优的nm个节点在满足成本约束和可用性目标的前提下最大化数据可靠性并最小化访问延迟。规划方案会返回给客户端。分布式存储执行客户端根据方案直接与每个选定的存储节点建立P2P连接上传对应的数据分片。每个节点收到分片后会生成一个存储收据包含数据哈希、节点签名等客户端收集齐所有收据后将其提交到区块链上进行存证。5.2 预测性维护与数据修复系统不会等到数据丢失后才行动。智能协同层持续监控所有存储节点的状态。节点健康度预测利用时序预测模型如LSTM或Prophet分析每个节点的历史在线和响应数据预测其未来几个小时或几天的稳定性。如果预测某个关键节点存储了唯一副本分片的离线概率大幅上升系统会提前触发预警。自动化修复流程当监测到有分片丢失通过定期挑战验证发现或预测到高风险时修复流程自动启动定位可用分片系统知道所有分片的存储位置。选择修复节点再次调用AI调度服务为待修复的分片选择新的、最优的存储节点。执行修复指示持有同文件其他分片的节点重新计算并生成丢失的分片利用纠删码的特性然后存储到新节点上。整个过程尽可能自动化无需用户干预。动态冗余调整对于特别重要或访问频繁的数据AI系统可以建议用户动态增加冗余分片数量m值以应对网络整体可靠性的波动。反之对于冷数据可以适当降低冗余以节省成本。5.3 基于可验证计算的存储证明优化存储证明如复制证明PoRep和时空证明PoSt是存储网络消耗算力和带宽的大头。AI可以优化这个过程差异化挑战不是对所有节点、所有数据以相同频率发起挑战。AI模型根据节点的“可信度分数”和历史表现对高信用节点降低挑战频率对低信用或新节点提高挑战频率。这能大幅减少全网的证明计算量。可验证的AI决策上链为了确保差异化挑战的公平性和抗操纵性AI调度器在决定挑战哪个节点时其决策逻辑或决策的随机种子可以通过“可验证随机函数”生成并将VRF证明和节点选择结果一起上链。这样任何节点都可以验证自己是否被“公平”地选中进行挑战防止调度中心作恶。实操心得在实现AI调度器时我们遇到了“模拟环境与现实差距”的问题。离线训练的AI模型在模拟器中表现优异但上线后由于网络延迟的不可预测性、节点的欺诈性行为如故意提供虚假带宽信息等效果大打折扣。我们最终采用了在线学习与模拟器训练相结合的方式。在线上部署一个相对保守的、基于规则的基线调度器同时让AI模型以“影子模式”运行即它做出调度建议但不实际执行只是记录其建议与实际结果的差异。用这些真实世界的数据不断微调AI模型待其线上评估指标稳定超过基线后再逐步切换流量。此外节点画像的数据收集必须轻量且隐私友好避免成为DDoS攻击或隐私泄露的源头。6. 常见挑战、问题排查与未来展望将AI和边缘计算落地到Web 3.0是一个充满挑战的旅程。下面分享一些我们实践中遇到的关键问题及解决思路。6.1 技术整合挑战挑战一异构边缘环境下的模型部署。用户的设备从高端手机到低功耗IoT设备性能天差地别。排查与解决采用“模型分级”策略。训练多个不同尺寸和精度的模型如大、中、小三个版本。设备在首次安装时或定期进行一个简单的性能基准测试根据得分自动选择适合的模型版本。同时必须提供纯规则引擎的降级备选方案当设备完全无法运行AI模型时至少能执行基于简单规则的风险检查。挑战二去中心化AI模型的更新与共识。如何确保所有边缘设备安全、一致地更新到新的AI模型如何防止恶意节点下发后门模型排查与解决模型更新必须通过去中心化存储区块链验证的组合。模型的二进制文件存储在IPFS/Arweave上其内容哈希CID和版本号由智能协同层的多个节点通过多重签名或DAO投票后记录在智能合约中。边缘设备从IPFS拉取模型前先查询合约中的官方CID进行比对。下载后计算本地文件的哈希进行二次验证。这建立了一个去中心化的信任链。挑战三隐私、效率与性能的三角权衡。同态加密和MPC计算开销大ZKP生成慢而边缘和区块链环境对延迟敏感。排查与解决没有银弹必须场景化取舍。对实时性要求极高的边缘初筛采用本地明文计算数据未出设备。对不敏感的全局聚合分析可采用轻量级的差分隐私技术添加噪声后上传。只有对涉及多方敏感数据的联合分析才考虑使用MPC。ZKP主要用于关键结论的链上存证而非每次推理。同时密切关注硬件加速如GPU/FPGA对HE、ZKP的加速和算法突破。6.2 经济与治理挑战挑战四如何激励边缘节点参与计算用户运行AI模型进行本地风险筛查消耗了其设备的电力和算力为何要参与解决思路设计细粒度的微支付与贡献证明机制。用户可以选择加入“安全网络”贡献计划。其本地设备在空闲时可以参与一些分布式推理任务如为协同层训练提供联邦学习更新或者贡献节点画像数据。这些贡献可以通过轻量级的证明如Proof of Useful Work来验证并换取网络代币奖励。这需要精巧的代币经济学设计避免激励扭曲。挑战五AI模型偏差与作恶风险。AI模型可能带有训练数据偏差导致对某些用户群体不公平。协同层的AI节点也可能合谋作恶。解决思路可验证性与可审计性是关键。首先用于训练模型的公开链上数据和匿名化数据集应尽量公开接受社区审计。其次鼓励“模型竞争”允许多个团队提供不同的AI风险模型由市场或DAO来选择和使用。最后核心的AI推理逻辑应尽可能简化并尝试向“可解释AI”方向发展让风险判断的依据更透明。挑战六去中心化存储的AI调度中心化风险。如果AI调度服务由少数节点控制会形成新的中心化瓶颈。解决思路将AI调度服务本身去中心化。可以采用基于区块链的预言机网络如Chainlink来聚合多个独立AI服务提供商的结果。或者设计一个基于权益证明的AI网络节点需要质押代币来提供调度服务如果作恶如长期提供劣质调度建议导致数据丢失其质押会被罚没。调度算法也可以部分开源并通过ZK-proof来证明其执行符合规则。6.3 未来演进方向从我个人的实践和观察来看这个领域还在早期但方向已经清晰。边缘智能设备如安全芯片、智能路由器将内置Web 3.0和AI能力成为新的网络入口。联邦学习会在保护隐私的前提下极大提升协同AI模型的性能。ZKML零知识证明机器学习的成熟将能完美证明AI推理过程的正确性彻底解决AI的“黑箱”信任问题。最终我们或许会看到一个由智能边缘节点自发组织、通过密码学和经济激励协调、为整个Web 3.0提供无处不在的智能与安全服务的底层网络。这条路很长坑很多但每解决一个实际问题都让我们离那个更开放、更智能、也更安全的下一代互联网更近一步。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2598921.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…