MATLAB基于格拉姆角场与2DCNN-BiGRU的轴承故障诊断模型

news2025/5/9 14:00:06

本博客来源于CSDN机器鱼,未同意任何人转载。

更多内容,欢迎点击本专栏目录,查看更多内容。

目录

0 引言

1 格拉姆角场原理

2 2DCNN-BiGRU网络结构

3 应用实例

3.1 数据准备

3.2 格拉姆角场数据提取

3.3 网络模型搭建-重中之重

3.4 使用训练好的网络

4 结语


0 引言

为确保对滚动轴承故障诊断的有效性,结合卷积神经网络(CNN)在图像特征提取与分类识别的优势,利用格拉姆角场(CAF)将滚动轴承一维振动信号转换为二维图像数据,既保留了信号完整的信息,也保持着信号对于时间的依赖性。并由此提出基于卷积神经网络与双向门控循环单元(BiGRU)的诊断模型。首先,将转换得到的二维图像作为模型的输人数据,通过卷积神经网络提取图像的空间特征,再由双向门控循环单元筛选其时间特征,最终由分类器完成模式识别。

1 格拉姆角场原理

具体原理可以看下面这篇文章,另外【博客】提供了Python代码。

2 2DCNN-BiGRU网络结构

结构很简单,就是先将振动信号转换为GADF或者GASF图片,然后resize成100*100*3输入进2DCNN-BiGRU进行特征提取,最后接一个全连接层做分类层,训练的时候损失函数为交叉熵函数。

在MATLAB中建立这种网络比较复杂,自带的深度学习工具箱没有BiGRU这种函数,我是参考【这里】手动建立的BiGRUlayer,顺便说一下MATLAB深度学习工具箱里面很多经典网络,并且带有数据,可直接跑。我代码中具体实现是,分别建立一个CNN与一个BiGRU,先把数据输入进CNN,再提取出来转成BiGRU的格式输入进BiGRU。

%% 模型建立
cnn = [
    imageInputLayer([100 100 3],'Normalization','none','Name','cnn_channel')
    convolution2dLayer(3,32,'Padding','same','Name','conv1')
    maxPooling2dLayer(2,'Stride',2,'Padding','same','Name','pool1')
    dropoutLayer(0.5,'Name','dropout1')
    reluLayer('Name','relu1')

    convolution2dLayer(3,64,'Padding','same','Name','conv2')
    maxPooling2dLayer(2,'Stride',2,'Padding','same','Name','pool2')
    dropoutLayer(0.5,'Name','dropout2')
    reluLayer('Name','relu2')
    
    convolution2dLayer(3,64,'Padding','same','Name','conv3')
    maxPooling2dLayer(2,'Stride',2,'Padding','same','Name','pool3')
    dropoutLayer(0.5,'Name','dropout3')
    reluLayer('Name','relu3')
    
    convolution2dLayer(3,64,'Padding','same','Name','conv4')
    maxPooling2dLayer(2,'Stride',2,'Padding','same','Name','pool4')
    dropoutLayer(0.5,'Name','dropout4')
    reluLayer('Name','relu4')];

%     fullyConnectedLayer(384,'Name','fc1')
lgraph1 = layerGraph(cnn);
dlnet1 = dlnetwork(lgraph1);

% bigru层与输出层 bigru参考
% https://ww2.mathworks.cn/support/search.html/answers/1567853-is-a-bi-gru-available-bidirectional-gated-recurrent-unit-gru-or-a-way-to-implement-a-bi-gru.html?fq[]=asset_type_name:answer&fq[]=category:deeplearning/deep-learning-with-time-series-sequences-and-text&page=1

lg=layerGraph();
lg = addLayers(lg, [
    sequenceInputLayer(448, "Name", "bigruinput")
    gruLayer( 512, 'OutputMode', 'sequence', ...
        "Name", "gru1")
    concatenationLayer(1, 2, "Name", "cat1")
    gruLayer( 512, 'OutputMode', 'last', ...
        "Name", "gru3")
    concatenationLayer(1, 2, "Name", "cat2")
    fullyConnectedLayer(10, 'Name', 'output')
] );
lg = addLayers( lg, [
    FlipLayer("flip1")
    gruLayer( 512, 'OutputMode', 'sequence', ...
        "Name", "gru2" )
    FlipLayer("flip2")] );
lg = addLayers(lg, [
    FlipLayer("flip3")
    gruLayer( 512, 'OutputMode', 'last', ...
        "Name", "gru4" )] );
    
lg = connectLayers(lg, "bigruinput", "flip1");
lg = connectLayers(lg, "flip2", "cat1/in2");
lg = connectLayers(lg, "cat1", "flip3");
lg = connectLayers(lg, "gru4", "cat2/in2");
dlnet2 = dlnetwork(lg);

3 应用实例

3.1 数据准备

采用西储大学轴承故障诊断数据集,48K/0HP数据,共10类故障(正常作为一类特殊的故障类型),划分后每个样本的采样点为864,每类故障各200个样本,一共得到2000个样本。博客中用到的数据可在【这里】下载。最后按照7:2:1的比例划分训练集、验证集、测试集。

%% 数据预处理(训练集 验证集 测试集划分)
clc;clear;close all

%% 加载原始数据
load 0HP/48k_Drive_End_B007_0_122;    a1=X122_DE_time'; %1
load 0HP/48k_Drive_End_B014_0_189;    a2=X189_DE_time'; %2
load 0HP/48k_Drive_End_B021_0_226;    a3=X226_DE_time'; %3
load 0HP/48k_Drive_End_IR007_0_109;   a4=X109_DE_time'; %4
load 0HP/48k_Drive_End_IR014_0_174 ;  a5=X173_DE_time';%5
load 0HP/48k_Drive_End_IR021_0_213 ;  a6=X213_DE_time';%6
load 0HP/48k_Drive_End_OR007@6_0_135 ;a7=X135_DE_time';%7
load 0HP/48k_Drive_End_OR014@6_0_201 ;a8=X201_DE_time';%8
load 0HP/48k_Drive_End_OR021@6_0_238 ;a9=X238_DE_time';%9
load 0HP/normal_0_97                 ;a10=X097_DE_time';%10

%% 
N=200;
L=864;% 每种状态取N个样本  每个样本长度为L
data=[];label=[];
for i=1:10
    if i==1;ori_data=a1;end
    if i==2;ori_data=a2;end
    if i==3;ori_data=a3;end
    if i==4;ori_data=a4;end
    if i==5;ori_data=a5;end
    if i==6;ori_data=a6;end
    if i==7;ori_data=a7;end
    if i==8;ori_data=a8;end
    if i==9;ori_data=a9;end
    if i==10;ori_data=a10;end
    
    
    for j=1:N
        start_point=randi(length(ori_data)-L);%随机取一个起点
        end_point=start_point+L-1;
        data=[data ;ori_data(start_point:end_point)];
        label=[label;i];
    end    
end
%% 标签转换 onehot编码
N=size(data,1);
output=zeros(N,10);
for i = 1:N
    output(i,label(i))=1;
end
%% 划分训练集 验证集与测试集 7:2:1比例
n=randperm(N);
m1=round(0.7*N);
m2=round(0.9*N);
train_X=data(n(1:m1),:);
train_Y=output(n(1:m1),:);

valid_X=data(n(m1+1:m2),:);
valid_Y=output(n(m1+1:m2),:);

test_X=data(n(m2+1:end),:);
test_Y=output(n(m2+1:end),:);

save data_process train_X train_Y valid_X valid_Y test_X test_Y

3.2 格拉姆角场数据提取

%% 使用格拉姆角场(GAF)以将时间序列数据转换为图像
clear;clc;close all
%% 加载信号
load data_process.mat
s=train_X(1,:);
N=864;
fs=48000;
t=0:1/fs:(N-1)/fs;
%%
figure
plot(t,s)
xlabel('t/s')
ylabel('幅值/A')
grid on

%% 
window_size = 2;%定义窗口大小为2
transformer = PPA(s,window_size); %分段聚合
transformer = MinMaxScaler(transformer);%归一化
arccos_X = acos(transformer);%转换成极坐标
X=GADF(arccos_X);
figure
imagesc(t,t,abs(X)/max(max(abs(X))));
set(gca,'YDir','normal')
axis ij;    %从上到下坐标递增
xlabel('时间 t/s');
ylabel('时间 t/s');
title('GSDF');

X=GASF(arccos_X);
figure
imagesc(t,t,abs(X)/max(max(abs(X))));
set(gca,'YDir','normal')
axis ij;    %从上到下坐标递增
xlabel('时间 t/s');
ylabel('时间 t/s');
title('GASF');

下面是求角场需要的一些函数,建立4个函数分别保存,不然有时会报错找不到函数。 

function y=PPA(x,window)
if size(x,1)==1
    x=x';
end
while mod(size(x,1),window)~=0
    x=[x; 0];
end
y=reshape(x,[window,length(x)/window])';
y=sum(y,2)/window;
end

function y=MinMaxScaler(data)
max_data = max(data);
min_data = min(data);
y = ((data-max_data)+(data-min_data))/(max_data-min_data);  %得到了一个归一化后的矩阵
end
function X=GADF(arccos_X)

X = ones(length(arccos_X),length(arccos_X));
for i = 1:length(arccos_X)
  for j = 1:length(arccos_X)
     X(i,j) = arccos_X(i)-arccos_X(j); 
  end
end
X=sin(X);
end
function X=GASF(arccos_X)

X = ones(length(arccos_X),length(arccos_X));
for i = 1:length(arccos_X)
  for j = 1:length(arccos_X)
     X(i,j) = arccos_X(i)+arccos_X(j); 
  end
end
X=cos(X);
end

 举例得到的GADF、GASF如图所示。

 然后再写一个循环,分别提取训练集、验证集、测试集的所有数据格拉姆角场图片并保存下来,这里我们提取的是GADF数据,并采用多线程的方式求每个图片,速度快一点,代码如下:

%% 批处理GSDF图
clear;clc;close all;format compact
if exist('GSDF')
    rmdir('GSDF','s')
end
mkdir('GSDF');
mkdir('GSDF/train_img/');
mkdir('GSDF/valid_img/');
mkdir('GSDF/test_img/');
%% 加载信号
load data_process.mat
N=864;
fs=48000;
t=0:1/fs:(N-1)/fs;
window_size = 2;%定义窗口大小为2
%% 训练集
[m,n]=size(train_X);
[~,label]=max(train_Y,[],2);
p=parpool(maxNumCompThreads);%图片太多 我们将采用多线程生成图片 大大节约时间
%如果电脑不支持多线程报错 就把p=parpool(maxNumCompThreads) 与delete(p) delete(gcp('nocreate'))删掉 把3个地方的parfor改成for
parfor  i=1:m
    i
    transformer = PPA(train_X(i,:),window_size); %分段聚合
    transformer = MinMaxScaler(transformer);%归一化
    arccos_X = acos(transformer);%转换成极坐标
    coefs=GADF(arccos_X);
    imagesc(t,t,abs(coefs)/max(max(abs(coefs))));
%     set(gcf,'PaperPositionMode','auto');
    set(gca,'position',[0 0 1 1])
    set(gcf,'position',[0,0,250,250]);
    fname=['GSDF/train_img/',num2str(i),'-',num2str(label(i)),'.jpg'];
    saveas(gcf,fname);
end

%% 验证集
[m,n]=size(valid_X);
[~,label]=max(valid_Y,[],2);
parfor i=1:m
    i
    transformer = PPA(valid_X(i,:),window_size); %分段聚合
    transformer = MinMaxScaler(transformer);%归一化
    arccos_X = acos(transformer);%转换成极坐标
    coefs=GADF(arccos_X);
    imagesc(t,t,abs(coefs)/max(max(abs(coefs))));
    set(gca,'position',[0 0 1 1])
    set(gcf,'position',[0,0,250,250]);
    fname=['GSDF/valid_img/',num2str(i),'-',num2str(label(i)),'.jpg'];
    saveas(gcf,fname);
end
%% 测试集
[m,n]=size(test_X);
[~,label]=max(test_Y,[],2);
parfor i=1:m
    i
    transformer = PPA(test_X(i,:),window_size); %分段聚合
    transformer = MinMaxScaler(transformer);%归一化
    arccos_X = acos(transformer);%转换成极坐标
    coefs=GADF(arccos_X);
    imagesc(t,t,abs(coefs)/max(max(abs(coefs))));
    set(gca,'position',[0 0 1 1])
    set(gcf,'position',[0,0,250,250]);
    fname=['GSDF/test_img/',num2str(i),'-',num2str(label(i)),'.jpg'];
    saveas(gcf,fname);
end
delete(p);
delete(gcp('nocreate'))

3.3 网络模型搭建-重中之重

MATLAB搭建复合网络比较复杂,主函数如下所示:

%% 1,清空变量
clc;clear;close all;format compact
%% 2.加载数据
disp('读取训练集图片用于训练模型')
[traindata,traintarget]=readimgdata('GSDF/train_img',[100 100],1);
disp('读取验证集图片用于训练过程中进行验证')
[XValidation,YValidation]=readimgdata('GSDF/valid_img',[100 100],1);

trainT = onehotencode(traintarget',2)';
validT = onehotencode(YValidation',2)';
%% 模型建立
cnn = [
    imageInputLayer([100 100 3],'Normalization','none','Name','cnn_channel')
    convolution2dLayer(3,32,'Padding','same','Name','conv1')
    maxPooling2dLayer(2,'Stride',2,'Padding','same','Name','pool1')
    dropoutLayer(0.5,'Name','dropout1')
    reluLayer('Name','relu1')

    convolution2dLayer(3,64,'Padding','same','Name','conv2')
    maxPooling2dLayer(2,'Stride',2,'Padding','same','Name','pool2')
    dropoutLayer(0.5,'Name','dropout2')
    reluLayer('Name','relu2')
    
    convolution2dLayer(3,64,'Padding','same','Name','conv3')
    maxPooling2dLayer(2,'Stride',2,'Padding','same','Name','pool3')
    dropoutLayer(0.5,'Name','dropout3')
    reluLayer('Name','relu3')
    
    convolution2dLayer(3,64,'Padding','same','Name','conv4')
    maxPooling2dLayer(2,'Stride',2,'Padding','same','Name','pool4')
    dropoutLayer(0.5,'Name','dropout4')
    reluLayer('Name','relu4')];

%     fullyConnectedLayer(384,'Name','fc1')
lgraph1 = layerGraph(cnn);
dlnet1 = dlnetwork(lgraph1);

% bigru层与输出层 bigru参考
% https://ww2.mathworks.cn/support/search.html/answers/1567853-is-a-bi-gru-available-bidirectional-gated-recurrent-unit-gru-or-a-way-to-implement-a-bi-gru.html?fq[]=asset_type_name:answer&fq[]=category:deeplearning/deep-learning-with-time-series-sequences-and-text&page=1

lg=layerGraph();
lg = addLayers(lg, [
    sequenceInputLayer(448, "Name", "bigruinput")
    gruLayer( 512, 'OutputMode', 'sequence', ...
        "Name", "gru1")
    concatenationLayer(1, 2, "Name", "cat1")
    gruLayer( 512, 'OutputMode', 'last', ...
        "Name", "gru3")
    concatenationLayer(1, 2, "Name", "cat2")
    fullyConnectedLayer(10, 'Name', 'output')
] );
lg = addLayers( lg, [
    FlipLayer("flip1")
    gruLayer( 512, 'OutputMode', 'sequence', ...
        "Name", "gru2" )
    FlipLayer("flip2")] );
lg = addLayers(lg, [
    FlipLayer("flip3")
    gruLayer( 512, 'OutputMode', 'last', ...
        "Name", "gru4" )] );
    
lg = connectLayers(lg, "bigruinput", "flip1");
lg = connectLayers(lg, "flip2", "cat1/in2");
lg = connectLayers(lg, "cat1", "flip3");
lg = connectLayers(lg, "gru4", "cat2/in2");
dlnet2 = dlnetwork(lg);
%% 网络训练参数
numEpochs = 150;% 训练代数
miniBatchSize = 128;%batchsize
learnRate = 0.01;%初始学习率
decay = 0.9;%学习率衰减
momentum = 0.9;%动量
%建一个图 来展示实时loss曲线
figure
lineLossTrain = animatedline('Color',[0.85 0.325 0.098]);
ylim([0 inf])
xlabel("Iteration")
ylabel("Loss")
grid on
%% 开始训练
train_again=1;% 为1就代码重新训练模型,为0就是调用训练好的网络
if train_again==1
    velocity1 = [];
    velocity2 = [];
    iteration = 0;
    start = tic;
    trainloss=zeros(numEpochs,1);
    for epoch = 1:numEpochs
        % 每一代 都先打乱数据,然后分批次遍历所有数据
        [x,y]=shuffle_data(traindata,trainT);
        batchs=ceil(size(y,2)/miniBatchSize);% 计算总批次
        all_loss=0;
        for i=1:batchs
            iteration = iteration + 1;
            % 读取第i个批次的数据
            [dX,T] = next_batch(x,y,miniBatchSize,i);
            % 计算梯度 loss
            dX=gpuArray(dX);
            T=gpuArray(T);

            [gradients1, gradients2,loss] = dlfeval(@modelGradients,dlnet1,dlnet2,dX,T,miniBatchSize);

            % 利用 SGDM 优化器更新网络参数.
            [dlnet1.Learnables, velocity1] = sgdmupdate(dlnet1.Learnables, gradients1, velocity1, learnRate, momentum);
            [dlnet2.Learnables, velocity2] = sgdmupdate(dlnet2.Learnables, gradients2, velocity2, learnRate, momentum);
            all_loss = all_loss+loss;

        end
        if mod(epoch,100)==0% 学习率衰减
            learnRate = learnRate*decay;
        end
        trainloss(epoch)=all_loss;
        % 实时显示loss
        D = duration(0,0,toc(start),'Format','hh:mm:ss');
        addpoints(lineLossTrain,epoch,all_loss/size(y,2))
        title("Epoch: " + epoch + ", Elapsed: " + string(D))
        drawnow
    end
    save result/net dlnet1 dlnet2 
else
    load result/net
end

%% 测试集正确率
[XValidation,YValidation]=readimgdata('GSDF/test_img',[100 100],1);
pred=modelPredict(dlnet1,dlnet2,XValidation,miniBatchSize);
label=onehotdecode(pred,[1,2,3,4,5,6,7,8,9,10],1);
acc=sum(label==YValidation)/length(label)
figure
cm = confusionchart(YValidation,label,'Normalization','row-normalized');
xlabel('真实标签')
ylabel('预测标签')
save result/cnnigruresult acc

%% 可视化
xb = dlarray(XValidation,'SSCB');
xb=gpuArray(xb);
dlYPred1 = predict(dlnet1,xb);%predict
dlYPred1=reshape(dlYPred1,[7*64,7,size(xb,4)]);
dlYPred2=dlarray(dlYPred1,'CTB');
testFeatures= predict(dlnet2,dlYPred2);
testFeatures=gather(extractdata(testFeatures));
Y = tsne(testFeatures');

figure
gscatter(Y(:,1),Y(:,2),YValidation)
legend('1','2','3','4','5','6','7','8','9','10')
title('测试集特征可视化')

然后定义需要用到的子函数:

1.读取图片数据的子函数

function [data,label]=readimgdata(path,size,regular)
tic
list=dir([path,'/','*.jpg']);
N=length(list);
for i=1:N
    % 提取图片,并转换为 64*64*3(size)
    filepath=[path,'/',list(i).name];
    img=imread(filepath);
    img=double(imresize(img,size));
%     img1(1,:,:,:)=img;
    data(:,:,:,i)=img;
    
    %提取标签,10-1.ipg 10代表第10张,1代表其标签为1类
    S1 = regexp(list(i).name, '\-', 'split');
    S=regexp(S1{2}, '\.', 'split');
    label(:,i)=str2num(S{1});
end

if regular
    data=data/255;
end
label=categorical(label);
disp('读取图片耗时')
toc

2.打乱图像的子函数

function [x,y]=shuffle_data(x,y)
n=length(y);
a=randperm(n);

x=x(:,:,:,a);
y=y(:,a);
end

3.将数据转换为CNN输入格式的函数

function [xb,yb] = next_batch(x,y,bs,i)
start=(i-1)*bs+1;
ennd=start+bs-1;
if ennd>length(y)
    start=length(y)-bs;
    ennd=start+bs-1;
end
xb=x(:,:,:,start:ennd);
yb=y(:,start:ennd);

% 转换为matlab深度学习工具箱的输入格式,这个是必须的
xb = dlarray(xb,'SSCB');
yb = dlarray(yb,'CB');
end

4.FlipLayer这个函数是用来构建BiGRU的子函数,详细原理看【这里】,代码如下:

classdef FlipLayer < nnet.layer.Layer
    methods
        function layer = FlipLayer(name)
            layer.Name = name;
        end
        function Y = predict(~, X)
            Y = flip(X,3);
        end
    end
end

5.计算梯度的函数,用于反向更新网络参数,就是将数据输入到CNN中,然后提取CNN的输出转换成BiGRU的输入,再输入进BiGRU中,最后提取BiGRU的输出与真实值计算交叉熵损失,代码如下:

function [gradients1, gradients2,loss] = modelGradients(dlnet1,dlnet2,X, T,miniBatchSize)
% CNN通道前向计算
dlYPred1 = forward(dlnet1,X);
% size(dlYPred1)
dlYPred1=reshape(dlYPred1,[7*64,7,miniBatchSize]);%time distributed 论文里面算出来是6*6*64  matlab出来是7*7*64
dlYPred1=dlarray(dlYPred1,'CTB');
% BiGRU通道前向计算
output= forward(dlnet2,dlYPred1);
% size(output)
output=dlarray(output,'CB');
output = softmax(output);
loss = crossentropy(output,T);

% 计算梯度
[gradients1,gradients2] = dlgradient(loss,dlnet1.Learnables,dlnet2.Learnables);
loss = double(gather(extractdata(loss)));
end

6.模型预测函数

function pred=modelPredict(dlnet1,dlnet2,data,batchsize)
N_samples=size(data,4);
batchs=ceil(N_samples/batchsize);% 计算总批次
pred=[];
for i =1:batchs
    xb = dlarray(data(:,:,:, (i-1)*batchsize+1: min(i*batchsize,N_samples)),'SSCB');
    xb=gpuArray(xb);
    dlYPred1 = predict(dlnet1,xb);%predict
    dlYPred1=reshape(dlYPred1,[7*64,7,size(xb,4)]);
    dlYPred1=dlarray(dlYPred1,'CTB');
    output= predict(dlnet2,dlYPred1);
    output=extractdata(output);%提取数据 将dlarray转为一般的数组
    pred =[pred softmax(output)];
end
end

3.4 使用训练好的网络

clc;clear;close all;format compact
%% 加载训练好的网络
load result/net
%% 读取一个信号样本作为待测样本 转换为图片  并输入训练好的分类网络中
load data_process
data=test_X(1,:);
N=864;
fs=48000;
t=0:1/fs:(N-1)/fs;

%% 
window_size = 2;%定义窗口大小为2
transformer = PPA(data,window_size); %分段聚合
transformer = MinMaxScaler(transformer);%归一化
arccos_X = acos(transformer);%转换成极坐标
X=GADF(arccos_X);
imagesc(t,t,abs(X)/max(max(abs(X))));
set(gca,'position',[0 0 1 1])
set(gcf,'position',[0,0,250,250]);
saveas(gcf,'test.jpg');
%% 转为file4中cnn的输入形式
testD=double(imresize(imread('test.jpg'),[100,100]))/255;
pred=modelPredict(dlnet1,dlnet2,testD,1);
label=onehotdecode(pred,[1,2,3,4,5,6,7,8,9,10],1);
disp(['该待测样本标签为:',num2str(double(label))])

4 结语

更多内容请点击【专栏】获取。您的点赞是我更新【MATLAB神经网络1000个案例分析】的动力。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2371520.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

正点原子IMX6U开发板移植Qt时出现乱码

移植Qt时出现乱码 1、前言2、问题3、总结 1、前言 记录一下正点原子IMX6U开发板移植Qt时出现乱码的解决方法&#xff0c;方便自己日后回顾&#xff0c;也可以给有需要的人提供帮助。 2、问题 用正点原子IMX6U开发板移植Qt时移植Qt后&#xff0c;sd卡里已经存储了Qt的各种库&…

JVM局部变量表和操作数栈的内存布局

局部变量表和操作数栈 首先看一段Java源码 public class Add_Sample{public int add(int i, int j){int k 100;int result i j k;return result;}public static void main(String[] args){int result new Add_Sample().add(10,20);System.out.println(result);} }使用ja…

Mockoon 使用教程

文章目录 一、简介二、模拟接口1、Get2、Post 一、简介 1、Mockoon 可以快速模拟API&#xff0c;无需远程部署&#xff0c;无需帐户&#xff0c;免费&#xff0c;跨平台且开源&#xff0c;适合离线环境。 2、支持get、post、put、delete等所有格式。 二、模拟接口 1、Get 左…

使用 IDEA + Maven 搭建传统 Spring MVC 项目的详细步骤(非Spring Boot)

搭建Spring MVC项目 第一步&#xff1a;创建Maven项目第二步&#xff1a;配置pom.xml第三步&#xff1a;配置web.xml第四步&#xff1a;创建Spring配置文件第五步&#xff1a;创建控制器第六步&#xff1a;创建JSP视图第七步&#xff1a;配置Tomcat并运行目录结构常见问题解决与…

3.2.3 掌握RDD转换算子 - 4. 按键归约算子 - reduceByKey()

在本节课中&#xff0c;我们深入学习了Spark RDD的reduceByKey()算子。reduceByKey()主要用于处理元素为(key, value)形式的RDD&#xff0c;能够将相同key的元素聚集并合并&#xff0c;最终返回一个新RDD&#xff0c;其元素类型与原RDD保持一致。通过案例演示&#xff0c;我们首…

Pandas比MySQL快?

知乎上有人问&#xff0c;处理百万级数据&#xff0c;Python列表、Pandas、Mysql哪个更快&#xff1f; Pands是Python中非常流行的数据处理库&#xff0c;拥有大量用户&#xff0c;所以拿它和Mysql对比也是情理之中。 实测来看&#xff0c;MySQL > Pandas > Python列表…

简易的考试系统设计(Web实验)

简易的考试系统设计&#xff08;Web实验&#xff09; 1.实验内容与设计思想&#xff08;一&#xff09;实验需求&#xff08;二&#xff09;设计思路 2.代码展示3.实验小结 1.实验内容与设计思想 &#xff08;一&#xff09;实验需求 1.编写两个页面程序&#xff0c;一个HTML…

基于Kubernetes的Apache Pulsar云原生架构解析与集群部署指南(上)

#作者&#xff1a;闫乾苓 文章目录 概念和架构概述主要特点消息传递核心概念Pulsar 的消息模型Pulsar 的消息存储与分发Pulsar 的高级特性架构BrokerBookKeeperZooKeeper 概念和架构 概述 Pulsar 是一个多租户、高性能的服务器到服务器消息传递解决方案。Pulsar 最初由雅虎开…

使用JAVA对接Deepseek API实现首次访问和提问

一、标题 参考&#xff1a;https://www.cnblogs.com/saoge/p/18866776 使用JAVA对接Deepseek API实现首次访问和 提问&#xff1a;我有50万能做什么小本生意&#xff0c;举例3个! 二、代码 import java.io.BufferedReader; import java.io.InputStreamReader; import java.…

【C语言】文件操作(续)

目录 复习&#xff1a; 一⽂件的顺序读写 例子&#xff1a; 前言&#xff1a; 在上篇文章中介绍了文件的类型&#xff0c;文件指针&#xff0c;流&#xff0c;操作的函数。 在本篇文章继续为大家带来文件细节分享&#xff0c;如 顺序读写等等。 复习&#xff1a; fopen是…

基于CBOW模型的词向量训练实战:从原理到PyTorch实现

基于CBOW模型的词向量训练实战&#xff1a;从原理到PyTorch实现 在自然语言处理&#xff08;NLP&#xff09;领域&#xff0c;词向量是将单词映射为计算机可处理的数值向量的重要方式。通过词向量&#xff0c;单词之间的语义关系能够以数学形式表达&#xff0c;为后续的文本分…

mac连接lniux服务器教学笔记

从你的检查结果看&#xff0c;容器内已经安装了 XFCE 桌面环境&#xff08;xfce.desktop 和 xubuntu.desktop 的存在说明桌面环境已存在&#xff09;。以下是针对 Docker 容器环境的远程桌面配置方案&#xff1a; 一、容器内快速配置远程桌面&#xff08;XFCE VNC&#xff09;…

阀门产业发展方向报告(石油化工阀门应用技术交流大会)

本文大部分内容来自中国通用机械工业协会副会长张宗列在“2024全国石油化工阀门应用技术交流大会”上发表的报告。 一、国外阀门产业发展 从全球阀门市场分布看&#xff0c;亚洲是最大的工业阀门市场&#xff0c;美洲是全球第二大工业阀门市场&#xff0c;欧洲位列第三。 从国…

Windows Server 2025 安装AMD显卡驱动

运行显卡驱动安装程序&#xff0c;会提示出问题。但是此时资源已经解压 来到驱动路径 C:\AMD\AMD-Software-Installer\Packages\Drivers\Display\WT6A_INF 打开配置文件&#xff0c;把这两行替换掉 %ATI% ATI.Mfg, NTamd64.10.0...16299, NTamd64.10.0, NTamd64.6.0, NTamd64.…

用 CodyBuddy 帮我写自动化运维脚本

我正在参加CodeBuddy「首席试玩官」内容创作大赛&#xff0c;本文所使用的 CodeBuddy 免费下载链接&#xff1a;腾讯云代码助手 CodeBuddy - AI 时代的智能编程伙伴”。 #CodeBuddy首席试玩官 背景 我个人是非常喜欢 Jenkins 自动化部署工具的&#xff0c;之前都是手写 Jenki…

USB集线器芯片革新之战:CH334U如何以工业级性能重新定义HUB控制器

一、当工业智能化遭遇接口瓶颈 在智能制造与边缘计算蓬勃发展的今天&#xff0c;工程师们正面临一个看似微小却至关重要的挑战——如何让USB集线器在极端工况下保持稳定&#xff1f;传统HUB控制器在-20℃以下频繁出现信号失真&#xff0c;产线突然断电导致的静电击穿更是让设备…

基于 Spring Boot 瑞吉外卖系统开发(十)

基于 Spring Boot 瑞吉外卖系统开发&#xff08;十&#xff09; 修改菜品 修改菜品是在原有的菜品信息的上对菜品信息进行更新&#xff0c;对此修改菜品信息之前需要将原有的菜品信息在修改界面进行展示&#xff0c;然后再对菜品信息进行修改。 修改菜品分为回显菜品信息和更…

C++ 与 Lua 联合编程

在软件开发的广阔天地里&#xff0c;不同编程语言各有所长。C 以其卓越的性能、强大的功能和对硬件的直接操控能力&#xff0c;在系统开发、游戏引擎、服务器等底层领域占据重要地位&#xff0c;但c编写的程序需要编译&#xff0c;这往往是一个耗时操作&#xff0c;特别对于大型…

Linux系统(OpenEuler22.03-LTS)部署FastGPT

在 openEuler 22.03 LTS 系统上通过 Docker Compose 安装 FastGPT 的步骤如下&#xff1a; 官方参考文档&#xff1a;https://doc.fastgpt.cn/docs/development/docker/ 1. 安装 Docker 和 Docker Compose 可以参考我之前离线安装Docker的文章&#xff1a;openEuler 22.03 LT…

Kubernetes控制平面组件:Controller Manager 之 内置Controller详解

云原生学习路线导航页&#xff08;持续更新中&#xff09; kubernetes学习系列快捷链接 Kubernetes架构原则和对象设计&#xff08;一&#xff09;Kubernetes架构原则和对象设计&#xff08;二&#xff09;Kubernetes架构原则和对象设计&#xff08;三&#xff09;Kubernetes控…