Argo CD实战指南:基于GitOps的Kubernetes持续交付核心原理与生产级部署

news2026/5/9 17:06:09
1. 项目概述为什么我们需要Argo CD在云原生和微服务架构成为主流的今天应用部署的复杂性与日俱增。一个典型的应用可能由十几个甚至几十个微服务组成每个服务都有自己的配置、镜像版本和依赖关系。传统的部署方式比如手动执行kubectl apply或者依赖CI流水线在构建后直接推送部署已经显得力不从心。你可能会遇到这些问题不同环境开发、测试、生产的配置漂移难以管理回滚操作繁琐且容易出错无法直观地看到“当前线上跑的是什么”以及“我们即将要部署什么”。这就是Argo CD登场的时候。简单来说Argo CD是一个基于GitOps理念的、用于Kubernetes的声明式、持续交付工具。它把Git仓库作为期望状态的“唯一事实来源”并持续监控你的Kubernetes集群确保集群的实际运行状态与Git中声明的状态保持一致。一旦出现偏差无论是人为误操作还是其他原因Argo CD会自动或手动将其同步回Git中定义的状态。这种模式将基础设施和应用都当作代码来管理带来了可审计、可重复、安全可控的部署体验。我自己在多个生产集群中引入Argo CD后最直接的感受是“心里有底了”。再也不用在深夜接到报警后手忙脚乱地去查到底哪个版本被部署了上去。一切状态皆在Git中可查一切变更皆可通过Pull Request进行评审。2. 核心架构与GitOps理念深度解析2.1 GitOps不仅仅是“用Git做运维”很多人初识GitOps以为只是把YAML文件放到Git里。这理解对了一半但没抓住精髓。GitOps的核心原则可以概括为以下几点声明式系统整个系统包括应用和基础设施的状态都用声明式语言如Kubernetes YAML、Helm charts、Kustomize描述。版本化且不可变所有声明式配置都必须存储在版本控制系统如Git中。任何时间点的状态都可以被追溯和复现。自动同步有一个自动化代理在这里就是Argo CD持续比对目标环境集群的实际状态与Git中声明的期望状态并自动应用变更以消除差异。闭环反馈当自动化代理进行同步操作后它需要将结果状态反馈回系统确保可观测性。Argo CD完美践行了这些原则。它的架构清晰地分为控制平面和被控平面控制平面Argo CD ServerAPI、Web UI、Repo Server拉取并渲染Git中的清单文件、Application Controller核心控制器持续比较和协调状态。被控平面你的一个或多个目标Kubernetes集群。Argo CD通过kubeconfig或ServiceAccount与之通信。注意这里有一个关键的安全设计。在经典的GitOps模型中集群只拥有从Git仓库拉取Pull配置的权限而没有向Git推送Push的权限。这意味着生产集群的密钥不会存储在CI系统中大大缩小了攻击面。Argo CD正是这种“Pull”模式的代表。2.2 Argo CD 应用Application模型解析Application是Argo CD中最核心的定制资源CRD。它定义了一个从源代码Git/Helm仓库到目标集群和命名空间的映射关系。一个典型的Application CR看起来是这样的apiVersion: argoproj.io/v1alpha1 kind: Application metadata: name: myapp-production namespace: argocd # 注意这个资源本身是安装在Argo CD所在的命名空间 spec: project: default source: repoURL: https://github.com/myorg/myrepo.git targetRevision: HEAD # 可以是分支、标签或提交哈希 path: k8s/overlays/production # Git仓库中的路径 destination: server: https://kubernetes.default.svc # 指向同一集群也可以是外部集群地址 namespace: myapp-prod syncPolicy: automated: prune: true # 自动清理Git中不存在的资源 selfHeal: true # 当实际状态偏离时自动同步 syncOptions: - CreateNamespacetrue # 同步时自动创建命名空间关键字段解读与选型考量source.path这决定了你使用哪种配置管理工具。可以是纯YAML目录、Kustomize叠加overlays目录或Helm Chart的路径。选择建议对于简单的部署纯YAML或Kustomize足够如果需要复杂的模板化和值管理Helm是更成熟的选择。Argo CD对两者都有原生支持。targetRevision强烈建议不要长期使用HEAD或分支名如main作为生产环境的修订版本。这会导致部署不可重复。最佳实践是使用Git标签如v1.2.3或具体的提交SHA。这样每次同步都是确定性的。syncPolicy.automated这是“持续同步”模式。对于开发环境开启selfHeal和prune非常方便。但对于生产环境我个人的经验是关闭automated采用手动或自动化的“同步波”Sync Waves与“钩子”Hooks进行更精细的控制避免未经充分验证的变更自动生效。project用于逻辑上隔离和分组应用并配置访问控制策略例如哪些源仓库、目标集群和命名空间是允许的。3. 从零开始部署与配置实战3.1 安装Argo CD多种方式与选型建议安装Argo CD本身非常简单官方推荐使用其清单文件。但选择哪种安装方式取决于你的环境和需求。1. 基础安装快速开始kubectl create namespace argocd kubectl apply -n argocd -f https://raw.githubusercontent.com/argoproj/argo-cd/stable/manifests/install.yaml这会在argocd命名空间中安装所有核心组件。安装后你需要获取初始管理员密码存储在Secret中并通过端口转发或Ingress/负载均衡器访问UI。2. 高可用HA安装对于生产环境你需要考虑高可用。官方提供了HA清单它会以多个副本运行关键组件如Application Controller, Repo Server。kubectl apply -n argocd -f https://raw.githubusercontent.com/argoproj/argo-cd/stable/manifests/ha/install.yaml生产环境考量资源请求与限制务必为argocd-application-controller和argocd-repo-server设置合适的CPU/内存资源。Repo Server在渲染大型Helm Chart时可能消耗较多内存。持久化存储默认安装使用空卷emptyDirPod重启后数据会丢失。虽然Argo CD的状态主要存储在Kubernetes资源中和Git里但为了缓存和性能建议为argocd-repo-server配置持久化卷PV来缓存Git仓库和依赖项如Helm Chart仓库索引。3. 使用Helm Chart安装这是我最推荐的方式因为它提供了最大的灵活性和可配置性。helm repo add argo https://argoproj.github.io/argo-helm helm install argocd argo/argo-cd -n argocd --values values.yaml通过自定义values.yaml你可以轻松配置Ingress、TLS证书、资源限制、副本数、SSO集成等。例如下面是一个基础的生产级配置片段# values.yaml 示例 server: replicaCount: 2 service: type: LoadBalancer ingress: enabled: true hosts: - argocd.mycompany.com tls: - secretName: argocd-tls hosts: - argocd.mycompany.com resources: requests: memory: 256Mi cpu: 100m limits: memory: 512Mi cpu: 500m controller: replicaCount: 2 resources: requests: memory: 256Mi cpu: 250m limits: memory: 512Mi cpu: 1000m repoServer: replicaCount: 2 resources: requests: memory: 512Mi # 渲染时内存需求较高 cpu: 250m limits: memory: 1Gi cpu: 1000m3.2 初始配置与安全加固安装完成后第一件事不是急着部署应用而是进行安全加固。1. 修改默认管理员密码初始密码是自动生成的存储在Secretargocd-initial-admin-secret中。通过CLI修改是必须的argocd login argocd.mycompany.com argocd account update-password --account admin --current-password 初始密码 --new-password 强新密码2. 配置单点登录SSO在生产中绝不应该使用本地用户/密码。集成OIDC提供商如GitLab, GitHub, Google, Dex是标准做法。这需要在argocd-cmd-params-cmConfigMap中配置。例如集成GitLabapiVersion: v1 kind: ConfigMap metadata: name: argocd-cmd-params-cm namespace: argocd data: oidc.config: | name: GitLab issuer: https://gitlab.com clientID: $oidc.gitlab.clientId # 从Secret引用 clientSecret: $oidc.gitlab.clientSecret # 从Secret引用 requestedScopes: [openid, profile, email, groups]配置后UI和CLI登录都将重定向到你的身份提供商。3. 配置项目Projects与RBAC项目是实施细粒度访问控制的基础。你可以创建不同的项目限制其可访问的源仓库、目标集群和命名空间。apiVersion: argoproj.io/v1alpha1 kind: AppProject metadata: name: production-project namespace: argocd spec: description: Production Applications sourceRepos: - https://github.com/myorg/production-configs.git - https://charts.helm.sh/stable/* destinations: - namespace: prod-* # 允许部署到以prod-开头的命名空间 server: https://production-cluster.example.com clusterResourceWhitelist: - group: * kind: * namespaceResourceBlacklist: # 禁止操作某些敏感资源 - group: kind: ResourceQuota - group: kind: LimitRange roles: # 定义自定义角色 - name: release-manager description: Can sync and override apps policies: - p, proj:production-project:release-manager, applications, sync, production-project/*, allow - p, proj:production-project:release-manager, applications, override, production-project/*, allow然后在OIDC声明或组映射中将用户或组绑定到这些角色上。这样开发人员可能只能看到和操作他们团队所属项目的应用而运维人员则拥有更广泛的权限。4. 高级功能与生产级实践4.1 同步策略、钩子Hooks与同步波Sync Waves简单的自动同步不足以处理复杂的部署流程。Argo CD提供了强大的流程控制能力。同步策略Sync Policy进阶Sync Options除了CreateNamespacetrue还有几个重要选项Validatefalse跳过资源的kubectl验证慎用。SkipSchemaValidationtrue跳过CRD的OpenAPI模式验证处理自定义资源时可能用到。PruneLasttrue在同步过程的最后才清理资源确保新服务启动后再删除旧服务蓝绿部署有用。资源钩子Resource Hooks 钩子允许你在同步生命周期的特定点运行特定资源。这对于数据库迁移、通知、预热等操作至关重要。钩子类型有PreSync在同步主资源之前运行。典型场景运行数据库迁移Job。PostSync在同步主资源之后运行。典型场景发送部署成功通知、运行集成测试。SyncFail在同步失败时运行。用于告警或回滚操作。如何定义钩子很简单在资源的注解annotation中标记即可apiVersion: batch/v1 kind: Job metadata: name: db-migration annotations: argoproj.io/hook: PreSync argoproj.io/hook-delete-policy: HookSucceeded # 成功后删除Job Pod spec: template: spec: containers: - name: migrate image: myapp-migrator:latest command: [sh, -c, alembic upgrade head] restartPolicy: Never实操心得对于PreSync的数据库迁移Job务必设置hook-delete-policy: HookSucceeded。否则失败的Job Pod会保留阻塞后续的同步操作需要手动清理。同时确保迁移Job具有幂等性即使重复执行也不会破坏数据。同步波Sync Waves 通过注解argoproj.io/sync-wave你可以控制资源同步的顺序。波次可以是正数或负数数字小的先执行。波次 -2通常用于Namespace创建。波次 -1用于像CustomResourceDefinition(CRD) 这类需要先于其他资源存在的。波次 0默认波次主应用资源Deployment, Service等。波次 1用于PostSync钩子或需要等待主应用就绪后才部署的资源如配置依赖的ConfigMap。例如一个完整的应用部署顺序可能是先创建命名空间波次-2然后创建ConfigMap/Secret波次-1接着是主应用的Deployment/Service波次0最后运行一个健康检查的PostSync钩子波次1。4.2 应用集ApplicationSet与多集群/多环境管理当你有几十上百个微服务或者需要管理多个集群如每个客户一个独立集群时手动创建每个Application资源是灾难性的。ApplicationSet应运而生。ApplicationSet控制器可以根据模板和生成器Generator自动创建和管理多个Application资源。1. 列表生成器List Generator适用于已知的、固定的环境列表。apiVersion: argoproj.io/v1alpha1 kind: ApplicationSet metadata: name: myapp-all-envs namespace: argocd spec: generators: - list: elements: - cluster: production-cluster url: https://prod.k8s.example.com namespace: prod version: v1.0.0 - cluster: staging-cluster url: https://staging.k8s.example.com namespace: staging version: v1.1.0-beta template: metadata: name: {{cluster}}-myapp spec: project: default source: repoURL: https://github.com/myorg/myrepo.git targetRevision: {{version}} path: k8s/overlays/{{cluster}} destination: server: {{url}} namespace: {{namespace}}这个ApplicationSet会为生产和预发布集群各生成一个Application。2. Git目录生成器Git Generator更强大的模式根据Git仓库的目录结构自动生成应用。假设你的仓库结构如下apps/ ├── app1/ │ ├── base/ │ └── overlays/ │ ├── production/ │ └── staging/ └── app2/ └── ...你可以用以下ApplicationSet自动发现并管理所有应用的所有环境apiVersion: argoproj.io/v1alpha1 kind: ApplicationSet metadata: name: git-directory-generator namespace: argocd spec: generators: - git: repoURL: https://github.com/myorg/config-repo.git revision: HEAD directories: - path: apps/*/overlays/* template: metadata: name: {{path.basename}}.{{path[-1]}} # 例如app1.production spec: project: default source: repoURL: https://github.com/myorg/config-repo.git targetRevision: HEAD path: {{path}} destination: server: https://kubernetes.default.svc namespace: {{path[-1]}} # 使用overlays下的目录名作为命名空间这是管理大规模多应用、多环境的终极利器。你只需要在Git中创建符合约定的目录Argo CD就会自动为你创建对应的Application无需任何手动操作。4.3 健康检查与自定义健康状态Argo CD内置了对许多Kubernetes资源如Deployment, StatefulSet, Service等的健康状态判断。例如它会检查Deployment的availableReplicas是否匹配spec.replicas。但有时你需要为自定义资源CRD或特定场景定义健康状态。这时可以使用Lua脚本编写自定义健康检查。例如你有一个CronJob资源你希望它在最后一次调度成功后才被认为是健康的apiVersion: argoproj.io/v1alpha1 kind: Application metadata: name: my-cronjob-app spec: ... # 在spec层级添加健康检查覆盖 ignoreDifferences: # 可选忽略某些字段的差异 - group: batch kind: CronJob jsonPointers: - /spec/schedule # 自定义资源状态 # 通常通过Resource Customizations全局配置此处为示例自定义健康检查通常配置在Argo CD ConfigMapargocd-cm中作为全局或针对特定CRD的设置data: resource.customizations: | batch_CronJob: health.lua: | hs {} hs.status Progressing hs.message Waiting for next scheduled run if obj.status ~ nil and obj.status.lastScheduleTime ~ nil then -- 如果最后一次调度时间存在则认为健康 hs.status Healthy hs.message Last scheduled at .. obj.status.lastScheduleTime end return hs通过自定义健康检查你可以让Argo CD更准确地理解你的应用状态。5. 运维、监控与故障排查实录5.1 监控Argo CD自身一个管理部署的工具其自身的健康至关重要。内置指标Argo CD组件Server, Repo Server, Application Controller都暴露了Prometheus格式的指标。你需要配置ServiceMonitor或PodMonitor让Prometheus采集。关键指标包括argocd_app_info应用同步状态0OutOfSync, 1Synced, 2Unknown。argocd_app_k8s_request_total向Kubernetes API发起的请求数。controller_operation_state同步操作的状态运行中、成功、失败。各组件的内存、CPU使用率Go协程数量等。日志聚合确保Argo CD所有Pod的日志被收集到如Elasticsearch、Loki等中心化日志系统。排查问题时argocd-application-controller和argocd-repo-server的日志是首要查看对象。告警规则以下是一些关键的Prometheus告警规则示例- alert: ArgoCDAppOutOfSync expr: argocd_app_info{sync_statusOutOfSync} 0 for: 5m labels: severity: warning annotations: summary: ArgoCD Application {{ $labels.name }} is out of sync for 5 minutes - alert: ArgoCDRepoServerHighMemory expr: process_resident_memory_bytes{job~.*argocd-repo-server.*} / 1024 / 1024 1024 # 内存超过1GB for: 2m labels: severity: warning annotations: summary: ArgoCD Repo Server memory usage is high - alert: ArgoCDSyncFailed expr: increase(controller_operation_state{phaseFailed}[1h]) 0 labels: severity: critical annotations: summary: ArgoCD sync operations are failing5.2 常见问题与排查指南在实际运维中你会遇到各种各样的问题。下面是一个快速排查表问题现象可能原因排查步骤与解决方案应用一直处于“Progressing”或“OutOfSync”状态1. 资源健康检查未通过如Deployment Pod未就绪。2. 钩子Hook执行失败或阻塞。3. 同步波Sync Wave依赖未满足。1. 在UI中点击应用查看“资源树”状态红色标记的资源即是问题所在。检查对应Pod的事件和日志。2. 检查是否有PreSync/PostSync钩子如Job失败。使用kubectl get jobs -n app-namespace查看并检查相关Pod日志。3. 检查资源上的sync-wave注解确保依赖顺序正确。同步操作卡住无响应1. 对集群的API调用达到速率限制或超时。2. Application Controller Pod内存不足或死锁。3. 目标资源存在finalizer无法删除。1. 查看Application Controller日志是否有大量API错误。考虑增加控制器--kubectl-parallelism-limit参数或优化清单文件数量。2. 检查控制器Pod的内存使用情况必要时增加资源限制。3. 检查是否有命名空间或自定义资源卡在“Terminating”状态手动排查并清理finalizer。Repo Server频繁重启或渲染失败1. 渲染大型Helm Chart或复杂Kustomize时内存溢出OOM。2. Git仓库拉取失败网络、认证问题。3. 私有Helm仓库证书问题。1. 大幅增加argocd-repo-server的内存限制如2Gi起步。启用持久化缓存减少重复拉取。2. 检查Repo Server日志中的Git错误。验证SSH密钥或HTTPS令牌是否正确配置在argocd-repo-server的Deployment中。3. 对于自签名证书的私有仓库将CA证书挂载到Repo Server Pod的信任存储中。UI或CLI中无法看到最新代码状态1. Repo Server的缓存未更新。2. Git Webhook未正确配置或未触发。1. 在UI中手动点击应用的“刷新”按钮或通过CLI执行argocd app get appname --refresh。2. 检查Git仓库如GitHub/GitLab的Webhook配置确保Payload URL指向正确的Argo CD API地址且Secret匹配。在Argo CD Server日志中查看Webhook接收情况。权限错误cannot list resource \...\Argo CD使用的ServiceAccount通常是argocd-application-controller所在的SA在目标集群/命名空间中权限不足。1. 确保目标集群的kubeconfig或ServiceAccount令牌有足够权限。2. 使用argocd cluster add命令时会生成一个ClusterRoleBinding。检查其是否存在且绑定到正确的ServiceAccount。3. 对于细粒度权限可以使用AppProject来限制资源操作但需确保允许的操作有对应权限。一个真实的踩坑案例我们曾遇到一个应用同步后新Pod一直无法通过就绪探针导致健康检查失败。排查后发现新版本的镜像需要从一个新的私有镜像仓库拉取而目标集群的节点并没有配置该仓库的拉取密钥ImagePullSecret。教训Argo CD只负责将YAML清单同步到集群不负责管理集群的基础设施配置如节点上的Docker配置、镜像拉取密钥。这类依赖需要在部署前确保就绪。我们后来的解决方案是要么将ImagePullSecret作为加密的SealedSecret存储在Git中一并同步要么确保集群全局配置了拉取权限。5.3 备份与灾难恢复Argo CD的核心状态存储在两方面Git仓库这是你的期望状态是最重要的备份。确保Git仓库有定期备份和访问控制。Kubernetes资源包括Argo CD自身的所有CRDApplication, AppProject等和配置ConfigMap, Secret。这些资源存储在etcd中。完整的灾难恢复流程恢复集群首先恢复你的Kubernetes集群包括etcd数据。重新安装Argo CD使用与之前相同的配置Helm values或清单重新安装Argo CD到argocd命名空间。导入备份的CRD资源如果你有Argo CD CRD资源的备份例如使用velero或kubectl备份将其应用到新集群。kubectl apply -f argocd-backup/ -n argocd等待同步Argo CD Application Controller启动后会读取这些Application资源并立即开始与Git仓库中的状态进行比对和同步。关键点Argo CD是无状态的状态在Git和Kubernetes资源中。只要Git仓库完好并且能重新创建出Application等CRD资源你的整个交付状态就能恢复。因此定期备份argocd命名空间下的所有资源至关重要。你可以使用kubectl命令或集成到你的集群备份方案中如Velero。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2598166.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…