kafka配置SASL_PLAINTEXT简单认证

news2025/5/22 18:46:10

Kafka + ZooKeeper 开启 SASL_PLAINTEXT 认证(PLAIN机制)最全实战教程

💡 本教程将手把手教你如何为 Kafka 配置基于 SASL_PLAINTEXT + PLAIN 的用户名密码认证机制,包含 Kafka 与 ZooKeeper 的全部配置,适合入门。


🎯 教程目标

  • Kafka 客户端连接 Kafka Broker 时需要用户名密码验证;
  • Kafka 与 ZooKeeper 之间通信也启用 SASL 认证;
  • 使用 PLAIN 机制,无需 TLS/SSL 证书(比 SASL_SSL 简单);
  • 可用于本地开发环境或非安全生产环境。

🛠 环境准备

  • Kafka:3.6.0
  • ZooKeeper:3.6+
  • Java 8+
  • 操作系统:Linux / WSL / Mac / Windows(推荐用 WSL)
  • 镜像:
    zookeeper bitnami_zookeeper:3.8.4
    kafka bitnami/kafka:3.6.0

1️⃣ 配置 ZooKeeper 认证(Server端)

配置环境变量

env:
  - name: TZ
     value: Asia/Shanghai
   - name: ALLOW_ANONYMOUS_LOGIN
     value: 'no'
   - name: JVMFLAGS
     value: '-Xmx1g'
   - name: ZOO_ENABLE_AUTH
     value: 'yes'
   - name: ZOO_SERVER_USERS
     value: kafka
   - name: ZOO_SERVER_PASSWORDS
     value: zookeeper@2025
   - name: ZOO_SERVERS
     value: 'zk-cluster-auth-0.zk-cluster-auth-headless:2888:3888,zk-cluster-auth-1.zk-cluster-auth-headless:2888:3888,zk-cluster-auth-2.zk-cluster-auth-headless:2888:3888'
配置项说明
TZ=Asia/Shanghai设置容器的时区为中国标准时间(CST/UTC+8),方便日志与系统时间保持一致。
ALLOW_ANONYMOUS_LOGIN=no禁用匿名连接 ZooKeeper,必须通过用户名密码认证。建议生产环境使用。
JVMFLAGS='-Xmx1g'配置 ZooKeeper JVM 最大内存为 1GB,防止 OOM(默认可能太小)。
ZOO_ENABLE_AUTH=yes启用 ZooKeeper 身份认证(基于 SASL 的认证机制,如 PLAIN)。必须配合下面的用户密码使用。
ZOO_SERVER_USERS=kafka设置 ZooKeeper 允许的用户名,多个用户用逗号分隔。这里是 kafka
ZOO_SERVER_PASSWORDS=zookeeper@2025对应上面的用户的密码。如果多个用户,用逗号一一对应写。

服务配置

kind: Service
apiVersion: v1
metadata:
  name: zk-cluster-auth-headless
  namespace: zhubayi-common
  labels:
    app: kafka-cluster-auth
  annotations:
    kubesphere.io/alias-name: zk-cluster-auth
    kubesphere.io/creator: admin
    kubesphere.io/serviceType: statefulservice
spec:
  ports:
    - name: client
      protocol: TCP
      port: 2181
      targetPort: 2181
    - name: server
      protocol: TCP
      port: 2888
      targetPort: 2888
    - name: leader-select
      protocol: TCP
      port: 3888
      targetPort: 3888
    - name: adminserver
      protocol: TCP
      port: 8080
      targetPort: 8080
  selector:
    app: zk-cluster-auth
  clusterIP: None
  clusterIPs:
    - None
  type: ClusterIP
  sessionAffinity: None
  ipFamilies:
    - IPv4
  ipFamilyPolicy: SingleStack
  internalTrafficPolicy: Cluster

启动脚本

 command:
      - sh
      - '-c'
      - >
        export ZOO_SERVER_ID=$((${HOSTNAME##*-}+1))

        exec /opt/bitnami/scripts/zookeeper/entrypoint.sh
        /opt/bitnami/scripts/zookeeper/run.sh

2️⃣ 配置 Kafka(Broker端)

🧩 设置环境变量

env:
  #  设置容器的时区
  - name: TZ
    value: Asia/Shanghai

  # 🔗 Kafka 连接的 ZooKeeper 地址(推荐使用 headless 服务)
  - name: KAFKA_CFG_ZOOKEEPER_CONNECT
    value: 'zk-cluster-auth-headless:2181'

  # Kafka 内存配置(JVM堆大小)
  - name: KAFKA_HEAP_OPTS
    value: '-Xmx2g'

  # offsets topic 的副本数(建议 >=3)
  - name: KAFKA_CFG_OFFSETS_TOPIC_REPLICATION_FACTOR
    value: '3'

  # 每个 topic 的默认分区数
  - name: KAFKA_CFG_NUM_PARTITIONS
    value: '5'

  # Kafka 日志保留时间(单位小时)
  - name: KAFKA_CFG_LOG_RETENTION_HOURS
    value: '72'  # 3天

  # Kafka 日志切分时间(单位小时)
  - name: KAFKA_CFG_LOG_ROLL_HOURS
    value: '72'

  # 单个 segment 的最大大小(1GB)
  - name: KAFKA_CFG_LOG_SEGMENT_BYTES
    value: '1073741824'

  # 是否允许自动创建 topic(开发环境可开启)
  - name: KAFKA_CFG_AUTO_CREATE_TOPICS_ENABLE
    value: 'true'

  # 允许删除 topic
  - name: KAFKA_CFG_DELETE_TOPIC_ENABLE
    value: 'true'

  # 是否允许自动进行 leader 重新平衡(建议关闭以避免扰动)
  - name: KAFKA_CFG_AUTO_LEADER_REBALANCE_ENABLE
    value: 'false'

  # Kafka 清理策略(delete / compact)
  - name: KAFKA_CFG_LOG_CLEANUP_POLICY
    value: delete

  # 单条消息最大大小(5MB)
  - name: KAFKA_CFG_MESSAGE_MAX_BYTES
    value: '5242880'

  # 客户端请求最大大小(4MB)
  - name: KAFKA_CFG_MAX_REQUEST_SIZE
    value: '4194304'

  # 批处理大小(生产者用)
  - name: KAFKA_CFG_BATCH_SIZE
    value: '16384'

  # 允许使用 PLAINTEXT 明文监听器(非加密,仅适合内网测试)
  - name: ALLOW_PLAINTEXT_LISTENER
    value: 'true'

  # broker 间通信监听器名称(INSIDE 表示内网)
  - name: KAFKA_INTER_BROKER_LISTENER_NAME
    value: INSIDE

  # 监听器与协议映射(INSIDE 和 OUTSIDE 都启用 SASL_PLAINTEXT)
  - name: KAFKA_LISTENER_SECURITY_PROTOCOL_MAP
    value: 'INSIDE:SASL_PLAINTEXT,OUTSIDE:SASL_PLAINTEXT'

  # 是否允许客户端连接时自动创建 topic
  - name: KAFKA_AUTO_CREATE_TOPICS_ENABLE
    value: 'true'

  # 与 SSL 无关,可忽略(如果未使用 TLS)
  - name: KAFKA_SSL_CLIENT_AUTH
    value: required

  # Kafka 控制器使用的认证机制(SASL PLAIN)
  - name: KAFKA_CFG_SASL_MECHANISM_CONTROLLER_PROTOCOL
    value: PLAIN

  # broker 间通信使用的认证机制(SASL PLAIN)
  - name: KAFKA_CFG_SASL_MECHANISM_INTER_BROKER_PROTOCOL
    value: PLAIN

  # SSL 类型(使用 Java KeyStore 格式)(此配置无效,可忽略,未启用 SSL)
  - name: KAFKA_TLS_TYPE
    value: JKS

  # 指定 broker 之间用哪个监听器通信(重复定义,建议只保留一次)
  - name: KAFKA_CFG_INTER_BROKER_LISTENER_NAME
    value: SASL_PLAINTEXT

  # 客户端连接使用的监听器(与上面保持一致)
  - name: KAFKA_CLIENT_LISTENER_NAME
    value: SASL_PLAINTEXT

  # Controller 用户名(用于 Kafka 内部通信)
  - name: KAFKA_CONTROLLER_USER
    value: kafka

  # Controller 用户密码
  - name: KAFKA_CONTROLLER_PASSWORD
    value: 123456

  # Broker 间通信用户名
  - name: KAFKA_INTER_BROKER_USER
    value: kafka

  # Broker 间通信密码
  - name: KAFKA_INTER_BROKER_PASSWORD
    value: 123456

  # 允许的客户端用户名(支持多个,逗号分隔)
  - name: KAFKA_CLIENT_USERS
    value: kafka

  # 客户端密码(顺序与用户一致)
  - name: KAFKA_CLIENT_PASSWORDS
    value: 123456

  # 与 ZooKeeper 通信时使用的认证协议(SASL 必须设置)
  - name: KAFKA_ZOOKEEPER_PROTOCOL
    value: SASL

  # Kafka 访问 ZooKeeper 时使用的用户名
  - name: KAFKA_ZOOKEEPER_USER
    value: kafka

  # Kafka 访问 ZooKeeper 时使用的密码(需与 ZooKeeper 中配置一致)
  - name: KAFKA_ZOOKEEPER_PASSWORD
    value: zookeeper@2025

启动脚本

 command:
   - sh
   - '-c'
   - >

     POD_NAME=$(hostname)

     echo "POD_NAME:$POD_NAME"

     REPLICA_INDEX=$(echo $POD_NAME | sed 's/.*-\([0-9]\)$/\1/')

     echo "REPLICA_INDEX:$REPLICA_INDEX"

     export KAFKA_CFG_NODE_ID=${POD_NAME##*-}

     export KAFKA_NODE_ID="$REPLICA_INDEX"


     PORT=$((REPLICA_INDEX + 30900)) PORT2=$((REPLICA_INDEX + 9093))


     export
     KAFKA_CFG_ADVERTISED_LISTENERS="INSIDE://:9092,OUTSIDE://192.168.1.5:$PORT"


     export KAFKA_CFG_LISTENERS="INSIDE://:9092,OUTSIDE://:$PORT2"

     exec /opt/bitnami/scripts/kafka/entrypoint.sh
     /opt/bitnami/scripts/kafka/run.sh

服务端口配置

spec:
  ports:
    - name: tcp-9092
      protocol: TCP
      port: 9093
      targetPort: 9093
      nodePort: 30900
    - name: tcp-9093
      protocol: TCP
      port: 9094
      targetPort: 9094
      nodePort: 30901
    - name: tcp-9094
      protocol: TCP
      port: 9095
      targetPort: 9095
      nodePort: 30902

3️⃣ Kafka 客户端配置(示例)

配置文件

spring:
  kafka:
    bootstrap-servers: 192.168.1.5:30900  # Kafka 集群地址(多个可逗号分隔)

    listener:
      ack-mode: MANUAL_IMMEDIATE  # 手动提交 offset(立即确认)

    consumer:
      custom-environment: dev # 自定义字段,可用于多环境区分,无实际作用
      auto-offset-reset: latest  # 无 offset 时从最新消息开始消费(避免重复)
      enable-auto-commit: false  # 禁用自动提交,改为手动提交 offset
      # auto-commit-interval: 2000  # 如果启用自动提交,间隔为 2 秒(此处已注释)
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer  # key 反序列化方式
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer  # value 反序列化方式
      max-poll-records: 50  # 每次 poll 最多拉取 50 条记录
      max-poll-interval-ms: 600000  # poll 最大间隔 10 分钟

    producer:
      retries: 0  # 不重试(生产失败直接报错)
      batch-size: 16384  # 批量发送最大字节数(默认 16KB)
      buffer-memory: 33554432  # 发送缓冲区大小(默认 32MB)
      key-serializer: org.apache.kafka.common.serialization.StringSerializer  # key 序列化
      value-serializer: org.apache.kafka.common.serialization.StringSerializer  # value 序列化

    ssl:
      trust-store-location:    # ⚠ 这里为空,因使用 SASL_PLAINTEXT(非 SSL),可留空或移除
      trust-store-password:

    properties:
      sasl:
        mechanism: PLAIN  # 使用 SASL PLAIN 机制(用户名密码)
        jaas:
          config: >-
            org.apache.kafka.common.security.scram.ScramLoginModule required
            username="kafka"
            password="123456";
          # JAAS 配置:用户名密码认证(注意 password 后有分号)

      security:
        protocol: SASL_PLAINTEXT  # 使用 SASL_PLAINTEXT 传输协议(非加密)

      ssl:
        endpoint:
          identification:
            algorithm: ""  # 空表示跳过主机名校验(SSL 时才生效,非必须)


🚨 注意事项

配置项注意点
SASL_PLAINTEXT明文传输用户名密码,不建议用于公网
ScramLoginModule表示服务端配置的是 SCRAM(非 PLAIN)时使用,若是 PLAIN,应为 PlainLoginModule
trust-store-location可删除或忽略(仅用于 SASL_SSLSSL 场景)
bootstrap-servers建议配置多个 broker IP,提升可靠性
ack-mode: MANUAL_IMMEDIATE消费者业务失败时不会提交 offset,可重复消费

生产者配置

@Configuration
public class KafkaConfig {

    @Value("${spring.kafka.bootstrap-servers}")
    private String bootstrapServers;
    @Value("${spring.kafka.consumer.auto-offset-reset}")
    private String autoOffsetReset;
    @Value("${spring.kafka.consumer.enable-auto-commit}")
    private String enableAutoCommit;
    @Value("${spring.kafka.consumer.max-poll-records}")
    private String maxPollRecords;

    @Value("${spring.kafka.consumer.max-poll-interval-ms}")
    private String maxPollIntervalMs;

    @Value("${spring.profiles.active}")
    private String activeProfile;

    @Value("${spring.kafka.properties.security.protocol:SASL_SSL}")
    private String securityProtocol;
    @Value("${spring.kafka.properties.sasl.mechanism:PLAIN}")
    private String salsMechanism;
    @Value("${spring.kafka.properties.ssl.endpoint.identification.algorithm: \"\"}")
    private String identificationAlgorithm;
    @Value("${spring.kafka.properties.sasl.jaas.config: org.apache.kafka.common.security.plain.PlainLoginModule required username=\"kafka\" password=\"123456\";}")
    private String jaasConfig;
    @Value("${spring.kafka.ssl.trust-store-password: \"\"}")
    private String trustStorePassword;
    @Value("${spring.kafka.ssl.trust-store-location: \"\"}")
    private String trustStoreLocation;



    @Bean
    public ConsumerFactory<String, String> daConsumerConfigFactory() {
        Map<String, Object> props = new HashMap<>();
        props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
        props.put(ConsumerConfig.GROUP_ID_CONFIG, KafkaConsumerComponent.DAGROUP);
        props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        props.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, maxPollRecords);
        props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, autoOffsetReset);
        props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, enableAutoCommit);
        props.put(ConsumerConfig.MAX_POLL_INTERVAL_MS_CONFIG, maxPollIntervalMs);
        props.put("security.protocol", securityProtocol);
        props.put("sasl.mechanism", salsMechanism);
        props.put("ssl.endpoint.identification.algorithm", identificationAlgorithm);
        props.put("consumer.ssl.endpoint.identification.algorithm", identificationAlgorithm);
        props.put("sasl.jaas.config", jaasConfig);
        return new DefaultKafkaConsumerFactory<>(props);
    }

    @Bean
    public ConcurrentKafkaListenerContainerFactory<String, String> daConsumerFactory() {
        ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>();
        factory.setConsumerFactory(daConsumerConfigFactory());
        factory.setBatchListener(true); // 启用批量消费
        factory.getContainerProperties().setAckMode(ContainerProperties.AckMode.MANUAL_IMMEDIATE);
        return factory;
    }
}


🚨 常见问题排查

错误可能原因
No principal未正确配置 JAAS 文件或 KAFKA_OPTS 未设置
SaslAuthenticationException用户名密码不匹配
Connection refusedlistener 或端口未正确绑定
Cluster ID 不匹配ZooKeeper 路径配置错误或 meta.properties 被复用

✅ 总结

项目配置方式
ZooKeeper 启用鉴权zookeeper_jaas.conf + zoo.cfg
Kafka 启用鉴权kafka_server_jaas.conf + server.properties
客户端连接 Kafkakafka_client_jaas.conf

📎 参考资料

  • 官方文档:https://kafka.apache.org/documentation/
  • Kafka 安全机制:https://kafka.apache.org/documentation/#security_sasl

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2383314.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【Spring Boot】配置实战指南:Properties与YML的深度对比与最佳实践

目录 1.前言 2.正文 2.1配置文件的格式 2.2properties 2.2.1基础语法 2.2.2value读取配置文件 2.2.3缺点 2.3yml 2.3.1基础语法 2.3.2配置不同数据类型 2.3.3配置读取 2.3.4配置对象和集合 2.3.5优缺点 2.4综合练习&#xff1a;验证码案例 2.4.1分析需求 2.4.2…

算法优选系列(9.BFS 解决拓扑排序)

目录 拓扑排序简介&#xff1a; ​编辑 课程表&#xff08;medium&#xff09;&#xff1a; 课程表II&#xff08;medium&#xff09;: 火星词典&#xff08;hard&#xff09;&#xff1a; 拓扑排序简介&#xff1a; 有向无环图&#xff08;DAG图&#xff09; 如上图每条边…

【Java高阶面经:微服务篇】7. 1秒响应保障:超时控制如何成为高并发系统的“救火队长”?

一、全链路超时建模:从用户需求到系统分解 1.1 端到端时间预算分配 黄金公式: 用户期望响应时间 = 网络传输时间 + 服务处理时间 + 下游调用时间 + 缓冲时间典型分配策略(以1秒目标为例): 环节时间预算优化目标客户端渲染100ms骨架屏(Skeleton)预渲染边缘节点(CDN)…

力扣周赛置换环的应用,最少交换次数

置换环的基本概念 置换环是排列组合中的一个概念&#xff0c;用于描述数组元素的重排过程。当我们需要将一个数组转换为另一个数组时&#xff0c;可以把这个转换过程分解为若干个 “环”。每个环代表一组元素的循环交换路径。 举个简单例子 假设原数组 A [3, 2, 1, 4]&…

大语言模型 12 - 从0开始训练GPT 0.25B参数量 MiniMind2 补充 训练开销 训练步骤 知识蒸馏 LoRA等

写在前面 GPT&#xff08;Generative Pre-trained Transformer&#xff09;是目前最广泛应用的大语言模型架构之一&#xff0c;其强大的自然语言理解与生成能力背后&#xff0c;是一个庞大而精细的训练流程。本文将从宏观到微观&#xff0c;系统讲解GPT的训练过程&#xff0c;…

SQLMesh 宏操作符详解:@IF 的条件逻辑与高级应用

SQLMesh 的 IF 宏提供了一种在 SQL 查询中嵌入条件逻辑的方法&#xff0c;允许根据运行时条件动态调整查询结构。本文深入探讨 IF 的语法、使用场景及实际案例&#xff0c;帮助开发者构建更灵活、可维护的 SQL 工作流。 1. IF 宏简介 IF 是 SQLMesh 提供的条件逻辑宏&#xff…

【爬虫】12306自动化购票

上文&#xff1a; 【爬虫】12306查票-CSDN博客 下面是简单的自动化进行抢票&#xff0c;只写到预定票&#xff0c;没有写完登陆&#xff0c; 跳出登陆后与上述代码同理修改即可。 感觉xpath最简单&#xff0c;复制粘贴&#xff1a; 还有很多写法&#xff1a; 官网地址&#…

【Django系统】Python+Django携程酒店评论情感分析系统

Python Django携程酒店评论情感分析系统 项目概述 这是一个基于 Django 框架开发的酒店评论情感分析系统。系统使用机器学习技术对酒店评论进行情感分析&#xff0c;帮助酒店管理者了解客户反馈&#xff0c;提升服务质量。 主要功能 评论数据导入&#xff1a;支持导入酒店…

spring cloud alibaba-Geteway详解

spring cloud alibaba-Gateway详解 Gateway介绍 在 Spring Cloud Alibaba 生态系统中&#xff0c;Gateway 是一个非常重要的组件&#xff0c;用于构建微服务架构中的网关服务。它基于 Spring Cloud Gateway 进行扩展和优化&#xff0c;提供了更强大的功能和更好的性能。 Gat…

c#中添加visionpro控件(联合编程)

vs添加vp控件 创建窗体应用 右键选择项 点击确定 加载CogAcqfifoTool工具拍照 设置参数保存.vpp 保存为QuickBuild或者job, ToolBlock 加载保存的acq工具 实例化相机工具类 //引入命名空间 using Cognex.VisionPro; //实例化一个相机工具类 CogAcqFifoTool cogAcqFifoTool n…

性能测试-mysql监控

mysql常用监控指标 慢查询sql 慢查询&#xff1a;指执行速度低于设置的阀值的sql语句 作用&#xff1a;帮助定位查询速度较慢的sql语句&#xff0c;方便更好的优化数据库系统的性能 开启mysql慢查询日志 参数说明&#xff1a; slow_query_log:慢查询日志开启状态【on&#xf…

游戏引擎学习第301天:使用精灵边界进行排序

回顾并为今天的内容做准备 昨天&#xff0c;我们解决了一些关于排序的问题&#xff0c;这对我们清理长期存在的Z轴排序问题很有帮助。这个问题我们一直想在开始常规游戏代码之前解决。虽然不确定是否完全解决了问题&#xff0c;但我们提出了一个看起来合理的排序标准。 有两点…

【AI生成PPT】使用ChatGPT+Overleaf自动生成学术论文PPT演示文稿

【AI生成PPT】使用ChatGPTOverleaf自动生成学术论文PPT演示文稿 文章摘要&#xff1a;使用ChatGPTBeamer自动生成学术论文PPT演示文稿​​Beamer​​是什么Overleaf编辑工具ChatGPT生成Beamer Latex代码论文获取prompt设计 生成结果 文章摘要&#xff1a; 本文介绍了一种高效利…

局部放大maya的视图HUD文字大小的方法

一、问题描述&#xff1a; 有网友问&#xff1a;有办法局部放大maya的字体吗比如hud中currenttime打开之后画面右下角有个frame 想放大一下能做到吗&#xff1f; 在 Maya 中&#xff0c;可以通过自定义 HUD&#xff08;Heads-Up Display&#xff09;元素的字体大小来局部放大特…

初识Linux · NAT 内网穿透 内网打洞 代理

目录 前言&#xff1a; 内网穿透和打洞 NAPT表 内网穿透 内网打洞 正向/反向代理 前言&#xff1a; 本文算是网络原理的最后一点补充&#xff0c;为什么说是补充呢&#xff0c;因为我们在前面第一次介绍NAT的时候详细介绍的是报文从子网到公网&#xff0c;却没有介绍报文…

STM32接收红外遥控器的遥控信号

经过几天早晨的学习&#xff0c;终于把遥控器的红外信号给搞通了&#xff0c;特此记录一下&#xff1b;其实说白了&#xff0c;红外遥控就是高低电平的信号&#xff0c;用时间来区分是二进制的0还是1&#xff1b;然后把这些0或1&#xff0c;在组装成一个32位的数基本就算是完事…

Redis从入门到实战 - 高级篇(下)

一、Redis键值设计 1. 优雅的key结构 Redis的Key虽然可以自定义&#xff0c;但最好遵循下面几个最佳实践约定&#xff1a; 遵循基本格式&#xff1a;[业务名称]:[数据名]:[id]长度不超过44字节不包含特殊字符 例如&#xff1a;我们的登录业务&#xff0c;保存用户信息&…

GUI实验

题目&#xff1a; 编程包含一个标签和一个按钮&#xff0c;单击按钮时&#xff0c;标签的内容在"你好"和"再见"之间切换。 分析&#xff1a; 导入所需的Java库&#xff1a;程序使用了 javax.swing 包中的一些类来创建图形用户界面。 创建一个 JFrame 对象…

量子计算 | 量子密码学的挑战和机遇

量子计算在密码学中的应用现主要体现在对现有加密算法的威胁上。最著名的例子是Shor算法&#xff0c;该算法能够在多项式时间内分解大整数&#xff0c;从而威胁到基于大数分解的加密算法&#xff0c;如RSA加密。此外&#xff0c;量子计算还可以加速某些类型的密码分析&#xff…

分享一些多模态文档解析思路

多模态文档解析思路小记 作者&#xff1a;Arlene 原文&#xff1a;https://zhuanlan.zhihu.com/p/1905635679293122466 多模态文档解析内容涉及&#xff1a;文本、表格和图片 解析思路v1 基于mineru框架对pdf文件进行初解析 其具备较完整的布局识别和内容识别&#xff0c;并将…