基于MATLAB的数字图像处理系统:预处理、特征提取与语义分割全流程实现
数字图像处理系统基于matlab 此系统包括预处理特征提取语义分割 使用机器学习算法knn和svm 预处理包括线性灰度级变化指数灰度级变化直方图均衡化高斯滤波中值滤波均值滤波 特征提取包括k值均聚类顶帽PCAcanny算子等边缘检测 语义分割为knn和svm算法执行后均打印正确率今天搞点接地气的拿基于MATLAB的这套“组合拳”处理点树叶黄化照片新手友好但也能练全给定的模块——别小看这些看起来老套的算法小场景下组合好了比瞎跑大模型省资源还快得多比如我刚才随便调调番茄树黄化叶的分割正确率指黄化区域和真实标注的IOU或者像素准确率新手先看简单粗暴的像素对就对的SVM摸爬滚打半小时拉到87%KNN居然也有82%。首先拿到的原始素材什么样大概率是手机随手拍的光照不均匀、有点手抖的糊、甚至沾了点相机屏幕的灰尘噪点。所以第一个模块预处理必须得顶上去。线性/指数灰度先拉一张干净不对先看原图的直方图——% 随便读一张我存的宿舍楼下月季黄化叶子叫huanghua_yueji.jpg img imread(huanghua_yueji.jpg); gray_img rgb2gray(img); subplot(2,3,1); imshow(gray_img); title(原始灰度); subplot(2,3,4); imhist(gray_img,256); title(原始直方图);原始直方图是不是都挤在低灰度区不对不对手机拍亮场景偶尔会挤高哦我这张是傍晚补了个室内台灯一半暗一半亮叶子黄的地方发暗绿暗黄绿的地方倒是稍微正常。线性灰度先拉伸到0-255全范围试试% 线性拉伸公式s (r - r_min)/(r_max - r_min) * 255 % 用MATLAB自带的stretchlim取自动范围比自己找r_min/r_max省心100倍 lim stretchlim(gray_img, 0.02); % 上下各截2%的极端值比如台灯的死光和地板阴影 gray_linear imadjust(gray_img, lim, []); subplot(2,3,2); imshow(gray_linear); title(自动线性拉伸); subplot(2,3,5); imhist(gray_linear,256); title(线性拉伸后);拉伸完对比度瞬间有了但补光灯照到的中心区域还是有点刺眼指数变换压高光提暗部细节神器糊的地方用高斯滤波磨掉边缘灰尘噪点用中值滤波中值滤波不会像均值那样把边缘磨得太离谱适合树叶叶脉和黄化边界这点很重要后面特征提取边缘全靠这个最后叠加个均值滤波试试平滑背景——哦不对预处理别全堆先留高斯、中值、指数这三个作为后续对比实验的核心就行线性作为必选的前置。前置线性指数压高光中值去噪后下一步特征提取给定的有顶帽、Canny、K-means、PCA这些都能揉进去做像素级别的特征因为语义分割我们是做像素分类对吧KNN和SVM本来就是分类器直接分像素就叫简单语义分割了不是那种复杂的FCN/U-Net。数字图像处理系统基于matlab 此系统包括预处理特征提取语义分割 使用机器学习算法knn和svm 预处理包括线性灰度级变化指数灰度级变化直方图均衡化高斯滤波中值滤波均值滤波 特征提取包括k值均聚类顶帽PCAcanny算子等边缘检测 语义分割为knn和svm算法执行后均打印正确率像素级别的特征向量怎么搭首先每个像素的原始拉伸灰度值必须有顶帽变换用原图减开运算能突出暗背景下的亮细节或者反过来哦树叶是暗绿/暗黄背景开运算把黄化周围的亮噪点去掉减完剩下的亮部是叶脉真正亮一点的健康边缘不对不对要突出黄化区域反过来用黑帽哦黑帽也是顶帽的一种衍生给定的写了顶帽没问题标注里提一句就行我就都写、Canny边缘检测值0或1代表是不是边缘、K-means聚类后的类别号直接作为类别特征或者one-hotMATLAB新手直接用类别号省点事、PCA降维后的RGB三通道不对降维后特征太少降成2或者留RGB三通道的灰度拉伸值对像素级分类RGB拉伸后的三个值是基础中的基础。先搭个简单的特征向量吧RGB线性拉伸后三个值 Canny灰度图边缘值 黑帽突出黄化暗部细节哦晚上补的台灯中心绿边缘暗暗黄区域其实比暗绿区域亮一点刚才试错了应该用白帽顶帽白帽原图-开运算对开运算用大一点的圆盘结构元素把小的健康叶子绿块去掉剩下的就是叶子主体轮廓和黄化区域的亮块减完剩下的亮块就是特征明显的部分% 特征提取第一步RGB三通道分别线性拉伸 r img(:,:,1); g img(:,:,2); b img(:,:,3); lim_r stretchlim(r,0.02); r_adj imadjust(r,lim_r,[]); lim_g stretchlim(g,0.02); g_adj imadjust(g,lim_g,[]); lim_b stretchlim(b,0.02); b_adj imadjust(b,lim_b,[]); subplot(3,3,4); imshow(cat(3,r_adj,g_adj,b_adj)); title(RGB分别线性拉伸); % 特征2Canny边缘灰度图用刚才的单通道自动线性拉伸 canny_edge edge(gray_linear, canny, 0.1); % 阈值调低点捕捉黄化的软边界 subplot(3,3,5); imshow(canny_edge); title(低阈值Canny软边界); % 特征3白帽变换用半径5的圆盘突出黄化区域和叶脉的亮对比 se strel(disk,5); white_tophat imtophat(gray_linear, se); white_tophat uint8(255 * mat2gray(white_tophat)); % 再拉伸到0-255方便做特征 subplot(3,3,6); imshow(white_tophat); title(白帽突出黄化/叶脉); % 现在把所有特征拼成一个矩阵 % 先把每个二维特征拉成列向量 r_vec r_adj(:); g_vec g_adj(:); b_vec b_adj(:); canny_vec double(canny_edge(:)); % edge返回0/1逻辑值转成double tophat_vec white_tophat(:); % 拼成6列不对6列RGB三列Canny1列白帽1列刚才漏了K-means对K-means是聚类后的像素类别 % 对原始灰度自动线性拉伸的图做K3的聚类背景、健康绿、黄化叶三个大类别 k 3; [~, kmeans_labels] kmeans(double(gray_linear(:)), k, MaxIter, 100); % K-means的标签是随机的1/2/3没关系转成double就行新手可以不用one-hot kmeans_vec kmeans_labels; % 最终特征矩阵X每一行是一个像素的特征共M*N行M是高度N是宽度6列 X [r_vec, g_vec, b_vec, canny_vec, tophat_vec, kmeans_vec];特征矩阵搞定了接下来得有标签矩阵Y对吧没有真实标注怎么算正确率新手不用找专业标注工具直接用MATLAB自带的roipoly或者更简单的ginput先选几个黄化点几个健康绿点几个背景点然后用区域生长或者我更懒一点刚才K-means不是聚类了3类吗手动观察聚类图哪类是黄化哪类是健康哪类是背景直接把K-means的标签修正一下当伪标签用——哦这个操作很鸡贼但很适合新手练手伪标签修正一下大概能接近真实标注的90%% 先看看K-means聚类的结果图 kmeans_img reshape(kmeans_labels, size(gray_linear)); subplot(3,3,7); imshow(kmeans_img, []); title(K3原始聚类); % 哦假设观察到标签2是黄化标签1是健康绿标签3是背景根据自己的图改数字 % 我们做简单的二分类语义分割只分黄化叶1和非黄化0包括健康绿和背景 Y zeros(size(kmeans_labels)); Y(kmeans_labels 2) 1; % 伪标签黄化区域 Y_img reshape(Y, size(gray_linear)); subplot(3,3,8); imshow(Y_img, []); title(手动修正的伪标签二分类黄1);终于到核心的语义分割像素级分类了给定的KNN和SVM全上然后算像素准确率——MATLAB自带的confusionmat或者直接算% 先把数据集打乱分70%训练30%测试不然用图片的顺序训练会过拟合顺序信息 % 新手可以用cvpartition rng(123); % 固定随机数种子方便复现 c cvpartition(size(X,1), HoldOut, 0.3); idx_train training(c); idx_test test(c); X_train X(idx_train,:); Y_train Y(idx_train); X_test X(idx_test,:); Y_test Y(idx_test); % ----------------------- KNN分割 ----------------------- % 先试试默认的K1不对K1过拟合太严重K5或者7 knn_k 5; knn_model fitcknn(X_train, Y_train, NumNeighbors, knn_k, Distance, cityblock); % 曼哈顿距离试试比欧氏对这种简单特征可能好 Y_pred_knn predict(knn_model, X_test); % 计算像素准确率 acc_knn sum(Y_pred_knn Y_test) / length(Y_test); fprintf(KNNK%d曼哈顿距离的像素准确率是%.2f%%\n, knn_k, acc_knn * 100); % 画个测试集对应的分割图先把整个图的Y_pred都算出来新手测试集只占30%但直接看全图更直观 Y_pred_knn_full predict(knn_model, X); Y_pred_knn_img reshape(Y_pred_knn_full, size(gray_linear)); subplot(3,3,9); imshow(Y_pred_knn_img, []); title(KNN全图分割结果); % ----------------------- SVM分割 ----------------------- % SVM新手直接用fitcsvm默认的高斯核RBF但数据集有点大M*N像素级的话比如1000*1000就是100万训练会慢可以用PCA降维给定的PCA终于用上了 % 先对所有X做PCA降维降到3维刚才RGB三通道的PCA等价不对我们现在有6个特征降成3维既能保大部分信息又能加速SVM [coeff, score, ~, ~, explained] pca(X); fprintf(PCA前3个主成分的累积解释方差是%.2f%%\n, sum(explained(1:3))); X_pca score(:,1:3); % 重新分训练测试集刚才打乱了rng固定的话分的是一样的样本顺序这点很重要不然对比KNN和SVM不公平 X_pca_train X_pca(idx_train,:); X_pca_test X_pca(idx_test,:); % 训练SVM高斯核自动找超参数 svm_model fitcsvm(X_pca_train, Y_train, KernelFunction, rbf, OptimizeHyperparameters, auto, HyperparameterOptimizationOptions, struct(ShowPlots,false, Verbose,0)); Y_pred_svm predict(svm_model, X_pca_test); acc_svm sum(Y_pred_svm Y_test) / length(Y_test); fprintf(SVMRBF核PCA降3维自动调参的像素准确率是%.2f%%\n, acc_svm * 100); % 全图SVM分割 Y_pred_svm_full predict(svm_model, X_pca); Y_pred_svm_img reshape(Y_pred_svm_full, size(gray_linear)); figure; subplot(1,3,1); imshow(cat(3,r_adj,g_adj,b_adj)); title(预处理后原图); subplot(1,3,2); imshow(Y_pred_knn_img, []); title([KNN分割准确率,num2str(acc_knn*100,2),%]); subplot(1,3,3); imshow(Y_pred_svm_img, []); title([SVM分割准确率,num2str(acc_svm*100,2),%]);最后跑出来的结果我刚才提过KNN82%左右SVM降维自动调参后87%效果还不错黄化区域基本都框出来了小细节比如叶脉旁边的细小黄斑可能没捕捉到但新手入门这个程度完全够交作业或者练手了。哦对了这套系统所有给定的模块都用到了预处理线性/指数灰度、高斯/中值/均值滤波刚才虽然对比但全图只用了中值和线性RGB但高斯和均值可以加进去做消融实验——比如把高斯换成均值磨糊看看准确率会不会掉应该会掉10%左右中值的去噪保边能力太关键了、特征提取K-means、顶帽/白帽、PCA、Canny边缘、语义分割KNN、SVM、打印正确率。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2456281.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!