高性能消息中间件 - Kafka3.x(三)

news2025/7/20 19:02:08

文章目录

    • 高性能消息中间件 - Kafka3.x(三)
      • Kafka Broker ⭐
        • Kafka Broker概念
        • Zookeeper(新版本可以不使用zk了)⭐
          • Zookeeper的作用
        • Kafka的选举1:Broker选举Leader⭐
        • Broker核心参数⭐
        • 案例:服役新节点和退役旧节点(重要)⭐
          • 服役新节点⭐
          • 退役旧节点⭐
        • Kafka的副本⭐
          • 副本的基本概念⭐
          • Kafka的选举2:副本选举Leader⭐
          • 手动调整分区副本⭐
          • 分区自动再平衡机制
          • 增加kafka的副本⭐
        • Kafka的存储
          • 基本概念
          • 文件清理策略
        • Kafka高效读取数据⭐
          • 1:顺序写磁盘
          • 2:页缓存与零拷贝
      • Kafka消费者⭐
        • Kafka消费者的消费模式
        • 消费者组⭐
        • Kafka的选举3:消费者组选举Leader⭐
        • Java Api消费者的重要参数⭐
        • Java Api操作消费者⭐
          • 手动提交Offset⭐
        • 生产调优5:消息积压⭐

高性能消息中间件 - Kafka3.x(三)

Kafka Broker ⭐

Kafka Broker概念
  • kafka broker说白了就是kafka服务器。我们在生产环境下通常要搭建kafka broker集群。
  • partition(分区)和replica(副本)的区别:
    • 前提条件:假设我们的kafka集群数量(broker)为3。(也就是说我们集群只有3台kafka)。
      • 此时Partition分区可以指定的数量是(无限制)的(也就是说可以指定10、100)。
      • 但是replica副本数最多只能指定为3(3、2、1),否则就会报错。(因为我们的kafka broker数量就是3,replica不能超过这个值!!!!!)

大致图如下:(partition和replica和kafka broker的关系图)

在这里插入图片描述

Zookeeper(新版本可以不使用zk了)⭐
Zookeeper的作用
  • zookeeper的作用有:
    • 1:保存kafka元数据。
    • 2:保存broker注册信息。(有哪些broker可用)
    • 3:记录每一个分区副本有哪些?并且每一个分区副本的leader是谁?
    • 4:辅助选举leader。
    • 5:保存主题、分区信息,等等。
Kafka的选举1:Broker选举Leader⭐
  • broker选举leader规则:
    • 每一个broker都有一个唯一的broker id,broker在启动后会去zookeeper的controller节点竞争注册哪个broker先注册,那这个broker就是leader。
Broker核心参数⭐
参数描述
replica.lag.time.max.msISR 中,如果 Follower 长时间未向 Leader 发送通信请求或同步数据则该 Follower 将被踢出 ISR,并移动到OSR。该时间阈值,默认 30s
auto.leader.rebalance.enable默认是 true。 自动 Leader Partition 平衡(再平衡)。
leader.imbalance.per.broker.percentage**默认是 10%。**每个 broker 允许的不平衡的 leader的比率。如果每个 broker 超过了这个值,控制器会触发 leader的平衡。
leader.imbalance.check.interval.seconds默认值 300 秒。检查 leader 负载是否平衡的间隔时间。
log.segment.bytesKafka 中 log 日志是分成一块块存储的,此配置是指 log日志划分 成块的大小,默认值 1G
log.index.interval.bytes默认 4kb,kafka 里面每当写入了 4kb 大小的日志(.log),然后就往 index文件里面记录一个索引
log.retention.hoursKafka 中数据保存的时间,默认 7 天
log.retention.minutesKafka 中数据保存的时间,分钟级别,默认关闭
log.retention.msKafka 中数据保存的时间,毫秒级别,默认关闭
log.retention.check.interval.ms检查数据是否保存超时的间隔,默认是 5 分钟
log.retention.bytes默认等于-1,表示无穷大。超过设置的所有日志总大小,删除最早的 segment。
log.cleanup.policy默认是 delete,表示所有数据启用删除策略;如果设置值为 compact,表示所有数据启用压缩策略。
num.io.threads默认是 8。负责写磁盘的线程数。整个参数值要占总核数的 50%
num.network.threads默认是 3。数据传输线程数,这个参数占总核数的50%的 2/3
num.replica.fetchers副本拉取线程数,这个参数占总核数的 50%的 1/3
案例:服役新节点和退役旧节点(重要)⭐
服役新节点⭐

先只启动kafka01和kafka02机器,然后创建topic,副本数设置为2。然后再启动kafka03机器,然后让这个kafka03节点服役到集群中。

  • 1:只启动kafka01和kafka02机器,并创建topic:
kafka-topics.sh --bootstrap-server=192.168.184.201:9092 --topic=mytopic001 --partitions=3 --replication-factor=2  --create
  • 2:查询mytopic001详情(发现副本只存在于kafka01和kafka02节点上):
kafka-topics.sh --bootstrap-server=192.168.184.201:9092 --topic=mytopic001 --describe

在这里插入图片描述

  • 3:启动kafka03机器的zk和kafka,再次查询mytopic001详情(发现还是一样,副本只存在于kafka01和kafka02节点上,而不存在于kafka03节点上):
kafka-topics.sh --bootstrap-server=192.168.184.201:9092 --topic=mytopic001 --describe

在这里插入图片描述

  • 4:开始服役新节点了!!
vim topics-to-move.json

内容如下:(topics下面的topic设置为想要服役的topic主题名称,其他不变)

{
 "topics": [
 {"topic": "mytopic001"}
 ],
 "version": 1
}
  • 5:生成新的负载均衡计划:(并复制下面如图所示的计划)
    • –bootstrap-server:kafka集群地址
    • –topics-to-move-json-file:刚刚创建的json文件名
    • –broker-list:假如服役节点后的broker编号列表(3为kafka03的broker编号)
kafka-reassign-partitions.sh --bootstrap-server kafka01:9092 --topics-to-move-json-file topics-to-move.json --broker-list "1,2,3" --generate

在这里插入图片描述

  • 6:创建副本存储计划:
vim increase-replication-factor.json

内容如下:(就是刚刚复制的新的负载均衡计划)

{"version":1,"partitions":[{"topic":"mytopic001","partition":0,"replicas":[3,2],"log_dirs":["any","any"]},{"topic":"mytopic001","partition":1,"replicas":[1,3],"log_dirs":["any","any"]},{"topic":"mytopic001","partition":2,"replicas":[2,1],"log_dirs":["any","any"]}]}
  • 7:执行副本计划:(–reassignment-json-file负载均衡计划文件)
kafka-reassign-partitions.sh --bootstrap-server kafka01:9092 --reassignment-json-file increase-replication-factor.json --execute
  • 8:再次查看mytopic001详情:
kafka-topics.sh --bootstrap-server=192.168.184.201:9092 --topic=mytopic001 --describe

在这里插入图片描述

退役旧节点⭐
  • 1:经过上面的服役新节点,我们可以看到副本被分配到1、2、3号机器上了。下面我们要把kafka03节点删去。
kafka-topics.sh --bootstrap-server=192.168.184.201:9092 --topic=mytopic001 --describe

在这里插入图片描述

  • 2:开始退役节点了!!
vim topics-to-move.json

内容如下:(topics下面的topic设置为想要退役的topic主题名称,其他不变)

{
 "topics": [
 {"topic": "mytopic001"}
 ],
 "version": 1
}
  • 3:生成新的负载均衡计划:(并复制下面如图所示的计划)
    • –bootstrap-server:kafka集群地址
    • –topics-to-move-json-file:刚刚创建的json文件名
    • –broker-list:假如服役节点后的broker编号列表(1、2代表着kafka03节点要退役了)
kafka-reassign-partitions.sh --bootstrap-server kafka01:9092 --topics-to-move-json-file topics-to-move.json --broker-list "1,2" --generate

在这里插入图片描述

  • 6:创建副本存储计划:
vim decr-replication-factor.json

内容如下:(就是刚刚复制的新的负载均衡计划)

{"version":1,"partitions":[{"topic":"mytopic001","partition":0,"replicas":[1,2],"log_dirs":["any","any"]},{"topic":"mytopic001","partition":1,"replicas":[2,1],"log_dirs":["any","any"]},{"topic":"mytopic001","partition":2,"replicas":[1,2],"log_dirs":["any","any"]}]}
  • 7:执行副本计划:(–reassignment-json-file负载均衡计划文件)
kafka-reassign-partitions.sh --bootstrap-server kafka01:9092 --reassignment-json-file decr-replication-factor.json --execute
  • 8:再次查看mytopic001详情:
kafka-topics.sh --bootstrap-server=192.168.184.201:9092 --topic=mytopic001 --describe

在这里插入图片描述

Kafka的副本⭐
副本的基本概念⭐
  • replica(副本):为了防止集群中机器故障导致数据丢失,所以副本出现了。kafka的每一个topic在每一个分区都可以有多个replica副本,副本分为leader副本和follower副本。

    • leader副本:生产者和消费者只于leader副本交互。每一个topic中的每一个分区都有一个leader副本。
    • follower副本:负责实时从leader副本同步数据,当leader副本故障了,则会重新选举,使follower副本变成leader副本。
  • AR:分区中的所有 Replica 统称为 AR = ISR +OSR

  • ISR:所有与 Leader 副本保持一定程度同步的Replica(包括 Leader 副本在内)组成 ISR

  • OSR:与 Leader 副本同步滞后过多的 Replica 组成了 OSR

Kafka的选举2:副本选举Leader⭐
  • 选举规则:以ISR队列存在为前提,选举AR队列中的第一个副本为leader副本。

  • 如果leader副本故障下线,则也会以ISR队列存在为前提,选举AR队列第一个为leader(第一个不行则第二个,一直轮询直到选出leader)。

手动调整分区副本⭐
  • 1:创建一个新的topic:(指定为3个分区1个副本)
kafka-topics.sh --bootstrap-server kafka01:9092  --create --partitions 3 --replication-factor 1 --topic mytopic002
  • 2:查看mytopic002详情:
kafka-topics.sh --bootstrap-server=192.168.184.201:9092 --topic=mytopic002 --describe

在这里插入图片描述

  • 3:创建副本存储计划:
vim increase-replication-factor.json

内容如下:(修改topic和replicas)

{
"version":1,
"partitions":[
    
{"topic":"mytopic002","partition":0,"replicas":[1,2]},
{"topic":"mytopic002","partition":1,"replicas":[1,2]},
{"topic":"mytopic002","partition":2,"replicas":[1,2]} 

]

}
  • 4:执行副本存储计划:
kafka-reassign-partitions.sh --bootstrap-server kafka01:9092  --reassignment-json-file increase-replication-factor.json --execute
  • 5:再次查看mytopic002详情:
kafka-topics.sh --bootstrap-server=192.168.184.201:9092 --topic=mytopic002 --describe

在这里插入图片描述

分区自动再平衡机制

一般情况下,我们的分区都是平衡散落在broker的,随着一些broker故障,会慢慢出现leader集中在某台broker上的情况,造成集群负载不均衡,这时候就需要分区平衡。

  • 为了解决上述问题kafka出现了自动平衡的机制。kafka提供了下面几个参数进行控制:
    • auto.leader.rebalance.enable:自动leader parition平衡,默认是true;
    • leader.imbalance.per.broker.percentage:每个broker允许的不平衡的leader的比率,默认是10%,如果超过这个值,控制器将会触发leader的平衡
    • leader.imbalance.check.interval.seconds:检查leader负载是否平衡的时间间隔,默认是300秒
    • 但是在生产环境中是不开启这个自动平衡,因为触发leader partition的自动平衡会损耗性能,或者可以将触发自动平和的参数leader.imbalance.per.broker.percentage的值调大点。
增加kafka的副本⭐
  • 1:创建一个新的topic:(指定为3个分区1个副本)
kafka-topics.sh --bootstrap-server kafka01:9092  --create --partitions 3 --replication-factor 1 --topic mytopic002
  • 2:查看mytopic002详情:
kafka-topics.sh --bootstrap-server=192.168.184.201:9092 --topic=mytopic002 --describe

在这里插入图片描述

  • 3:创建副本存储计划:
vim increase-replication-factor.json

内容如下:(修改topic和replicas)

{
"version":1,
"partitions":[
    
{"topic":"mytopic002","partition":0,"replicas":[1,2]},
{"topic":"mytopic002","partition":1,"replicas":[1,2]},
{"topic":"mytopic002","partition":2,"replicas":[1,2]} 

]

}
  • 4:执行副本存储计划:
kafka-reassign-partitions.sh --bootstrap-server kafka01:9092  --reassignment-json-file increase-replication-factor.json --execute
  • 5:再次查看mytopic002详情:
kafka-topics.sh --bootstrap-server=192.168.184.201:9092 --topic=mytopic002 --describe

在这里插入图片描述

Kafka的存储
基本概念
  • 每一个partition分区都对应着一个log文件。Producer生产的数据会被不断追加到该log文件末端

  • kafka为了提高效率,把每一个log文件拆分成多个segment(每个segment大小默认是1G),可以通过log.segment.bytes去修改。

  • 该文件命名规则为:topic名称+分区号

  • 当log文件写入4kb大小数据(这里可以通过log.index.interval.bytes设置),就会写入一条索引信息到index文件中,这样的index索引文件就是一个稀疏索引,它并不会每条日志都建立索引信息。

文件清理策略
  • 日志清理策略有两个:

    • 日志删除(delete) :按照一定的保留策略直接删除不符合条件的日志分段。
    • 日志压缩(compact) :针对每个消息的key进行整合,对于有相同key的不同value值,只保留最后一个版本。
    • 可以通过修改broker端参数 log.cleanup.policy 来进行配置
  • kafka中默认的日志保存时间为7天,可以通过调整如下参数修改保存时间。

    • log.retention.hours:最低优先级小时,默认7天
    • log.retention.minutes:分钟
    • log.retention.ms:最高优先级毫秒
    • log.retention.check.interval.ms:负责设置检查周期,默认5分钟
    • file.delete.delay.ms:延迟执行删除时间
    • log.retention.bytes:当设置为-1时表示运行保留日志最大值(相当于关闭);当设置为1G时,表示日志文件最大值
Kafka高效读取数据⭐
  • kafka之所以读写性能高,是因为:
    • 1:kafka是一个分布式的中间件,采用了多分区架构、以及消费者集群(消费者组),有利于抗住高并发、大流量场景。
    • 2:kafka底层存储采用稀疏索引(每写入4kb数据才会加上1条索引),不仅能够节约索引占用的空间,也可以让我们快速定位数据。
    • 3:顺序写磁盘
    • 4:采用页缓存和零拷贝
1:顺序写磁盘
  • kafka底层写入log日志数据采用的就是末尾追加的方式写入数据(这种就是顺序写磁盘),顺序写磁盘的效率比随机写磁盘的效率高了很多。
2:页缓存与零拷贝
  • kafka大量使用了页缓存(PageCache),分为以下两个场景:

    • 1:读操作:当我们要读取数据的时候,首先会去页缓存里面找有没有该数据,如果有则返回,如果没有则会去磁盘中寻找,并把数据存到页缓存中。
    • 2:写操作:首先会判断如果页缓存没有该条数据,则会把数据写入页缓存。如果有这条数据则修改这个页缓存数据,此时这个页缓存中的数据页就是脏页,操作系统会在特定时间把脏页写入磁盘,保证了数据一致性。
  • 零拷贝并不是不需要拷贝,而是减少不必要的拷贝次数。

    • 当数据从磁盘经过DMA 拷贝到内核缓存(页缓存)后,为了减少CPU拷贝的性能损耗,操作系统会将该内核缓存与用户层进行共享,减少一次CPU copy过程,同时用户层的读写也会直接访问该共享存储,本身由用户层到Socket缓存的数据拷贝过程也变成了从内核到内核的CPU拷贝过程,更加的快速,这就是零拷贝。

Kafka消费者⭐

Kafka消费者的消费模式
  • 1:poll(拉):消费者主动从kafka broker中拉取数据。(kafka默认采用
  • 2:push(推):kafka broker主动推送数据给消费者。
消费者组⭐
  • 一个相同消费者组的消费者,它们的groupid是相同的。

  • 一个分区只能由同一个消费者组的一个消费者所消费。

  • 消费者组之间互不影响。

Kafka的选举3:消费者组选举Leader⭐
  • 首先要选择出coordinator,如下:

    • groupid的hashcode值%50(-consumer_offsets的分区数)。
    • 比如groupid的hashcode值为2,则2%50=2,也就是说coordinator的2号分区在哪个kafka broker上就选择哪个节点的coordinator作为这个消费者组的boss,以后这个消费者组提交的所有offsets就往这个分区提交。
  • 后面由coordinator负责选出消费组中的Leader

Java Api消费者的重要参数⭐
参数描述
bootstrap.serversKafka集群地址列表。
key.deserializer 和value.deserialize反序列化类型。要写全类名
group.id消费者组id。标记消费者所属的消费者组
enable.auto.commit默认值为 true,消费者会自动周期性地向服务器提交偏移量
auto.commit.interval.ms如果设置了 enable.auto.commit 的值为 true, 则该值定义了消费者偏移量向 Kafka提交的频率,默认 5s
auto.offset.resetearliest:自动重置偏移量到最早的偏移量。 latest:默认,自动重置偏移量为最新的偏移量。 none:如果消费组原来的(previous)偏移量不存在,则向消费者抛异常。 anything:向消费者抛异常
offsets.topic.num.partitions__consumer_offsets 的分区数,默认是 50 个分区
heartbeat.interval.msKafka 消费者和 coordinator 之间的心跳时间,默认 3s。该条目的值必须小于 session.timeout.ms ,也不应该高于session.timeout.ms 的 1/3
session.timeout.msKafka 消费者和 coordinator 之间连接超时时间,默认 45s。超过该值,该消费者被移除,消费者组执行再平衡。
max.poll.interval.ms消费者处理消息的最大时长,默认是 5 分钟。超过该值,该消费者被移除,消费者组执行再平衡。
fetch.min.bytes默认 1 个字节。消费者获取服务器端一批消息最小的字节数。
fetch.max.wait.ms默认 500ms。如果没有从服务器端获取到一批数据的最小字节数。该时间到,仍然会返回数据。
fetch.max.bytes默认 Default: 52428800(50 m)。消费者获取服务器端一批
消息最大的字节数。
max.poll.records一次 poll拉取数据返回消息的最大条数,默认是 500 条
Java Api操作消费者⭐
  • 注意:指定消费者组id。注意指定my-consumer-group01会出现无反应现象。最好别加数字。例如:my-consumer-group 这个就可以运行
package com.kafka02.consumer;

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.serialization.StringDeserializer;

import java.time.Duration;
import java.util.HashSet;
import java.util.Properties;
import java.util.Set;

public class MyConsumer {

    public static void main(String[] args) {

        Properties properties = new Properties();
        //1:基本配置
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.184.201:9092");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        //2:指定消费者组id。注意指定my-consumer-group01会出现无反应现象。最好别加数字。my-consumer-group
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"my-consumer-group");

        KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<String, String>(properties);

        // 存放需要消费的topic名称
        Set<String> topicSet=new HashSet<>();
        topicSet.add("java-api-test");
        // 订阅这个topic集合
        kafkaConsumer.subscribe(topicSet);

        System.out.println("等待拉取数据------");
        //循环消费消息
        while (true){

            //kafka消费者的消费模式就是poll。指定1s拉取一次数据
            ConsumerRecords<String, String> consumerRecords =
                    kafkaConsumer.poll(Duration.ofSeconds(1));

            //输出消息
            consumerRecords.forEach(record -> {
                System.out.println("--");
                System.out.println(record);
            });

        }

    }

}
手动提交Offset⭐
  • 手动提交offset有两个方法:(二选一)
    • commitSync(同步提交):必须等待offset提交完毕,再去消费下一批数据。 阻塞线程,一直到提交到成功,会进行失败重试
    • commitAsync(异步提交) :发送完提交offset请求后,就开始消费下一批数据了。没有失败重试机制,会提交失败
package com.kafka02.consumer;

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.serialization.StringDeserializer;

import java.time.Duration;
import java.util.HashSet;
import java.util.Properties;
import java.util.Set;

public class MyConsumerCommit {

    public static void main(String[] args) {

        Properties properties = new Properties();
        //1:基本配置
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.184.201:9092");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        //2:指定消费者组id。注意指定my-consumer-group01会出现无反应现象。最好别加数字。my-consumer-group
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"my-consumer-group");
        //3:关闭自动提交
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,false);


        KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<>(properties);

        // 存放需要消费的topic名称
        Set<String> topicSet=new HashSet<>();
        topicSet.add("java-api-test");
        // 订阅这个topic集合
        kafkaConsumer.subscribe(topicSet);

        System.out.println("等待拉取数据------");
        //循环消费消息
        while (true){

            //kafka消费者的消费模式就是poll。指定1s拉取一次数据
            ConsumerRecords<String, String> consumerRecords =
                    kafkaConsumer.poll(Duration.ofSeconds(1));

            //消费消息
            consumerRecords.forEach(record -> {
                System.out.println("--");
                System.out.println(record);
            });
            //消费结束后手动提交offset
            kafkaConsumer.commitSync(); //同步提交

        }
    }
}
生产调优5:消息积压⭐
  • 解决方案1:可以增加partition分区数和增加消费者组中的消费者数量,使partition分区数=消费者组中的消费者数量。

  • 解决方案2:提高每批次拉取消息的数量(max.poll.records),默认是500条,可以提高到1000条。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1157303.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

多测师肖sir_高级金牌讲师_jmeter 反向代理录制脚本

jemeter自带的录制脚本功能&#xff0c;是利用代理服务器来进行录制的 1&#xff0c;新建一个线程组 2&#xff0c;新建一个代理服务器 右击工作台-添加-非测试元件-http代理服务器 3&#xff0c; 配置http代理服务器 端口&#xff1a; 默认为8888&#xff0c;可修改。但…

InfoHound:一款针对域名安全的强大OSINT工具

关于InfoHound InfoHound是一款针对域名安全的强大OSINT工具&#xff0c;在该工具的帮助下&#xff0c;广大研究人员只需要提供一个Web域名&#xff0c;InfoHound就可以返回大量跟目标域名相关的数据。 在网络侦查阶段&#xff0c;攻击者会搜索有关其目标的任何信息&#xff…

理解springboot那些过滤器与调用链、包装或封装、设计模式相关等命名规范,就可以读懂80%的springboot源代码,和其他Java框架代码

紧接上面《 理解springboot那些注册与回调、监控与统计等命名规范,就可以读懂70%的springboot源代码》、《 理解springboot那些约定俗成的框架类名、全局context等命名规范,就可以读懂一半springboot的源代码》2篇文章,此片将汇总springboot那些过滤器与调用链、包装或封装…

(三)上市企业实施IPD成功案例分享之——五菱

2022年对汽车产业而言是极为不平凡的一年。这一年&#xff0c;企业受到疫情反复、芯片短缺、原材料价格上涨等负面因素影响&#xff0c;汽车产业的变革持续加速。面对变革与挑战&#xff0c;五菱汽车仍逆势交出一份超出市场预期的成绩单。上半年&#xff0c;五菱发布2022年财报…

职场晋升力加分利器:巧用ChatGPT快速搞定数据分析

&#x1f482; 个人网站:【工具大全】【游戏大全】【神级源码资源网】&#x1f91f; 前端学习课程&#xff1a;&#x1f449;【28个案例趣学前端】【400个JS面试题】&#x1f485; 寻找学习交流、摸鱼划水的小伙伴&#xff0c;请点击【摸鱼学习交流群】 第一部分&#xff1a; C…

Java设置日期时间的毫秒数为0

背景 做一个发送短信的需求&#xff0c;采用RabbitMQ来实现定时发送。发送时需要验证发送短信任务的预计发送时间和生产者传过来的时间是否一致&#xff0c;一致才发送。 结果在调试的时候&#xff0c;却发现任务一直没法触发。一步步调试&#xff0c;发现是两个时间不相等。明…

【Proteus仿真】【51单片机】贪吃蛇游戏

文章目录 一、功能简介二、软件设计三、实验现象联系作者 一、功能简介 本项目使用Proteus8仿真51单片机控制器&#xff0c;使用8*8LED点阵、按键模块等。 主要功能&#xff1a; 系统运行后&#xff0c;可操作4个按键控制小蛇方向。 二、软件设计 /* 作者&#xff1a;嗨小易…

2023第二十五届深圳高交会将于11月15日在深启幕

10月31日下午&#xff0c;第二十五届中国国际高新技术成果交易会&#xff08;以下简称高交会&#xff09;新闻发布会在市政府新闻发布厅举行。以“激发创新活力 提升发展质量”为主题的第二十五届高交会将于11月15日-19日在深圳会展中心&#xff08;福田展区&#xff09;和深圳…

el-date-picker如何选择规定范围内的时间(十天以内的时间)

这个需求是可以选择之后来计算,选择当前日期之后自动计算当前日期前后的十天以内的日期 如下图 就是19号前面十天的日期 以及后面十天的日期(包含当天) 需要用到elementUI el-date-picker是Element UI库中的一个组件&#xff0c;用于日期选择 <el-date-picker v-model&q…

零代码编程:用ChatGPT进行批量重命名时需要注意特殊字符

用ChatGPT进行批量重命名时&#xff0c;一部分成功了&#xff0c;但有一部分文件标题没有变化。 问下ChatGPT怎么回事&#xff1a; 回复&#xff1a;在Windows中&#xff0c;文件名不能包含以下字符&#xff1a;\ / : * ? " < > |&#xff0c;使用Python的 str.rep…

LiveMeida视频接入网关

一、产品简介 视频接入网关主要部署在视频存储节点或视频汇聚节点&#xff0c;面向不同用户&#xff0c;主要用于对接不同厂家、不同型号的摄像机设备&#xff0c;获取摄像机视频后&#xff0c;以统一标准的视频格式和传输协议&#xff0c;将视频推送至上层联网/应用平台。可广…

支付宝小程序自主DIY源码系统 五分钟打造一个专属小程序 带完整搭建教程

现如今&#xff0c;在我们的日常生活中&#xff0c;小程序已经成为一种备受欢迎的应用形态。支付宝小程序自主DIY源码系统能够帮助用户快速搭建属于自己的小程序。罗峰今天来给大家分享一款支付宝小程序自主DIY源码系统 &#xff0c;帮你五分钟就创建一个小程序&#xff0c;十分…

《Pytorch新手入门》第一节-认识Tensor

《Pytorch新手入门》第一节 一、认识Tensor1.1Tensor定义1.2Tensor运算操作1.3Tensor与numpy转换 参考《深度学习框架PyTorch&#xff1a;入门与实践_陈云(著)》 一、认识Tensor 1.1Tensor定义 Tensor 是 PyTorch 中重要的数据结构&#xff0c;可认为是一个高维数组。它可以是…

科东软件受邀参加2023国家工业软件大会,共话工业软件未来

10月28日&#xff0c;由中国自动化学会主办的2023国家工业软件大会在浙江湖州开幕。大会以“工业软件智造未来”为主题&#xff0c;一批两院院士、千余名专家学者齐聚一堂&#xff0c;共同探讨工业软件领域前沿理论和技术创新应用问题&#xff0c;共同谋划我国工业软件未来发展…

前端性能瓶颈崩溃项目?Webpack助力解决!

&#x1f3ac; 江城开朗的豌豆&#xff1a;个人主页 &#x1f525; 个人专栏 :《 VUE 》 《 javaScript 》 &#x1f4dd; 个人网站 :《 江城开朗的豌豆&#x1fadb; 》 ⛺️ 生活的理想&#xff0c;就是为了理想的生活 ! 目录 ⭐ 专栏简介 &#x1f4d8; 文章引言 一、背…

SOLIDWORKS上海华东代理商特别企划·SW正版软件免费试用下载

为了向上海华东地区广大SOLIDWORKS用户提供更好的本地化服务&#xff0c;SOLIDWORKS官方授权代理经销商北京亿达四方信息技术有限公司在上海成立了分公司&#xff0c;20年来致力于帮助用户搭建基于SOLIDWORKS的3D数字化研发设计制造平台、培养研发和创新型人才、建立基于3D产品…

linux杀毒软件下载、安装(在线安装、离线安装)

下载 ClamAVNet 离线安装 # 离线安装 rpm -ivh --prefix/usr/local/clamav clamav*linux.x86_64.rpm # 添加用户组和组成员 groupadd clamav useradd -g clamav clamav # 创建日志目录、病毒库目录和套接字目录 mkdir -p /usr/local/clamav/logs mkdir -p /usr/local/clamav/…

今日头条小程序源码系统 带完整搭建教程

随着小程序的发展&#xff0c;越来越多的企业和开发者开始关注小程序的开发。今天源码小编给大家分享一款今日头条小程序源码系统&#xff0c;并附带完整的搭建教程。 今日头条小程序源码系统是一款基于PHPMySQL开发组合开发的小程序框架&#xff0c;具有丰富的组件库和插件生…

HTML链接、头部

HTML链接&#xff1a; HTML使用超级链接与网络上的另一个文档相连。HTML中的链接是一种用于在不同网页之间的导航的元素。链接通常用于将一个网页与另一个网页或资源&#xff08;文档、图像、音频文件等&#xff09;相关联。链接允许用户在浏览网页时单击文本或图像来跳转到其他…

Java导入Jsoup库做一个有趣的爬虫项目

Jsoup库是一款Java的HTML解析器&#xff0c;可用于从网络或本地文件中获取HTML文档并解析其中的数据。它可以模拟浏览器的行为&#xff0c;获取网页中的数据&#xff0c;是Java爬虫中常用的工具之一。与浏览器相比&#xff0c;Jsoup库的主要区别在于它不会执行JavaScript代码&a…