0

0

采用UNet完成磁瓦图片分割

P粉084495128

P粉084495128

发布时间:2025-07-25 13:31:10

|

801人浏览过

|

来源于php中文网

原创

本文基于中科院自动所磁瓦缺陷公开数据集,采用PaddlePaddle框架构建UNet模型进行分割实验。数据集含1568组图像,分训练、验证、测试集。模型经60轮训练,评价指标为:P=0.955、R=0.737、F1=0.832、ACC=0.973、IOU=0.713,为后续迁移学习至红外热成像无损检测奠定基础。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

采用unet完成磁瓦图片分割 - php中文网

Unet模型分割磁瓦缺陷

  1. 数据集采用中科院自动所公开数据集,具体内容见:https://aistudio.baidu.com/aistudio/datasetdetail/224907/0
  2. 本文主要参考:图像分割的打怪升级之路——UNet、PSPNet、Deeplab:https://aistudio.baidu.com/aistudio/projectdetail/2148971?channelType=0&channel=0&sUid=1019401&ts=1687278761304
  • 背景:本人为初级炼丹师,目前炼丹领域主要集中在图像分割与生成式模型。
  • 目前:正在构建红外热成像的无损检测数据集,该数据集能够为后续无损检测的后处理研究提供一定的帮助。但目前为止正在构建实验设备阶段,所以欲先从磁瓦缺陷分割然后通过迁移学习,完成后续的组合模型的构建。
  • 结果: unet评价指标为: P:0.955250726851333, R:0.7372399981794183, F1:0.8322043172342575, ACC:0.973421630859375, IOU:0.7126283557268431

1. 数据集预处理以及参数设置

1.1 导入必要的库函数

值得注意的是paddlepaddle-gpu版本为:2.0.2

In [1]
import osimport shutilimport numpy as npfrom paddle.io import Dataset,DataLoaderfrom paddle.vision import transforms as Tfrom paddle.nn import functional as Fimport cv2import paddleimport matplotlib.pyplot as pltimport paddle.nn as nnfrom tqdm import tqdmfrom PIL import Imagefrom visualdl import LogWriterfrom paddle import nn
       
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/__init__.py:107: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working
  from collections import MutableMapping
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/rcsetup.py:20: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working
  from collections import Iterable, Mapping
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/colors.py:53: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working
  from collections import Sized
       

1.2 定义超参数

训练历史loss与val-loss的数据导出

  1. log_path路径为训练中的val-loss,train-loss,val-acc,train-acc储存位置,
  2. 可以通过左侧的可视化打开,然后通过下载数据为csv,完成后续绘图

其余注释已经写得很清楚,不多作介绍

In [2]
# 训练迭代次数epochs = 60#批量大小batch_size=100#验证集的数量eval_num=150# 测试集的数量test_num=150# 所有图像的大小image_size=(128,128)# 标签图片路径label_images_path="/home/aistudio/data/expansion_annotations"# 输入图像路径input_images_path="/home/aistudio/data/expansion_images"# 保存文件的路径放在work中,每重启项目,都会清空# 存放图片路径filepath = "/home/aistudio/data/"# 模型权重等保存路径modle_and_weight_path = '/home/aistudio/data/modle_weight'# 验证训练效果路径datatest_path = '/home/aistudio/data/pre_test_label'# 训练日志保存log_path = '/home/aistudio/data/train_log'
   

1.3 解压数据集

将数据从/home/aistudio/data/data224907/解压到data/,这样能够减轻加载时间,因为data文件夹每次启动会重置

ChatDOC
ChatDOC

ChatDOC是一款基于chatgpt的文件阅读助手,可以快速从pdf中提取、定位和总结信息

下载
In [3]
!unzip -oq /home/aistudio/data/data224907/expansion_annotations.zip -d data/
!unzip -oq /home/aistudio/data/data224907/expansion_images.zip -d data/
   

1.4 获取图片路径+图片名 组成的数组

函数:def get_img_files(directory):将path=directory文件夹下的所有后缀名为png或jpg的文件 获取文件夹下所有文件名称,返回完整路径

  • 输入:
  •   directory: 存放图片的文件夹
               
  • 输出:
  •   sorted(img_files):  排序后的(地址+名称)
               
In [4]
def get_img_files(directory):
    # 获取指定目录下的所有文件名
    file_list = os.listdir(directory)  
    # 使用列表推导式筛选出所有后缀名为.png的文件名
    img_files = [os.path.join(directory, file) for file in file_list if file.endswith('.png') or file.endswith('.jpg')]    
    # 不排序的话文件名会与标签名混乱
    return sorted(img_files)# 获取输入图片(1568,1)images = np.expand_dims(np.array(get_img_files(input_images_path)),axis=1)# 获取输入图片对应得标签(1568,1)labels = np.expand_dims(np.array(get_img_files(label_images_path)),axis=1)# 拼接np ----》(1568,2)data = np.array(np.concatenate((images,labels),axis=1))# 打乱数据集 不影响images与labels的关系np.random.shuffle(data)# 分割数据集train_data=data[:-(eval_num + test_num),:]
eval_data=data[-(eval_num + test_num):-test_num,:]
test_data=data[-test_num:,:]#打印数据格式,以及图片与对应标签print(train_data.shape, train_data[0])print(eval_data.shape, eval_data[0])print(test_data.shape, test_data[0])
       
(1268, 2) ['/home/aistudio/data/expansion_images/Imgs-exp6_num_352572.jpg'
 '/home/aistudio/data/expansion_annotations/Imgs-exp6_num_352572.png']
(150, 2) ['/home/aistudio/data/expansion_images/Imgs-exp3_num_322643.jpg'
 '/home/aistudio/data/expansion_annotations/Imgs-exp3_num_322643.png']
(150, 2) ['/home/aistudio/data/expansion_images/Imgs-exp3_num_186885_ud.jpg'
 '/home/aistudio/data/expansion_annotations/Imgs-exp3_num_186885_ud.png']
       

2. 数据增强处理与数据提取器的构建

2.1 对图片完成增强处理

In [5]
train_transform=T.Compose([
            T.Resize(image_size),  #裁剪
            T.ColorJitter(0.1,0.1,0.1,0.1), #亮度,对比度,饱和度和色调
            T.Transpose(), #CHW
            T.Normalize(mean=0.,std=255.) #归一化
        ])
eval_transform=T.Compose([
            T.Resize(image_size),
            T.Transpose(),
            T.Normalize(mean=0.,std=255.)
        ])
   

2.2 定义数据提取器

In [6]
class ImageDataset(Dataset):
    def __init__(self,path,transform):
        super(ImageDataset, self).__init__()
        self.path=path
        self.transform=transform    def _load_image(self,path):
        '''
        该方法作用为通过路径获取图像
        '''
        img=cv2.imread(path)
        img=cv2.resize(img,image_size)        return img    def __getitem__(self,index):
        '''
        这里之所以不对label使用transform,因为观察数据集发现label的图像矩阵主要为0或1
        但偶尔也有0-255的值,所以要对label分情况处理
        而对data都进行transform是因为data都是彩色图片,图像矩阵皆为0-255,所以可以统一处理
        '''
        path=self.path[index]        if len(path)==2:
            data_path,label_path=path            # 获取图片数组
            data,label=self._load_image(data_path),self._load_image(label_path)            # 对图片数组归一化
            data,label=self.transform(data),label            # 参数 (2,0,1) 表示将第三维度(channel)作为第一维度,第一维度(height)作为第二维度,
            # 第二维度(width)作为第三维度
            label = label.transpose((2, 0, 1))            # 提取这个数组的第一行,保留该行所有列,也就是将其尺寸从(1, height, width)变为了
            # (height, width),即去掉了第一维的维数,并将其赋值给了变量 label。
            label = label[0, :, :]
            label = np.expand_dims(label, axis=0)            if True in (label>1):
                label=label/255.
            label = label.astype("int64")            return data,label 

        # 获取的路径只有一个,那么就是输入图片(用于没有标签的测试集)
        if len(path)==1:
            data=self._load_image(path[0])
            data=self.transform(data)            return data    def __len__(self):
        return len(self.path)# 获取数据读取器train_dataset=ImageDataset(train_data,train_transform)
eval_dataset=ImageDataset(eval_data,eval_transform)
test_dataset=ImageDataset(test_data,eval_transform)

train_dataloader=DataLoader(train_dataset,batch_size=batch_size,shuffle=True,drop_last=True)
eval_dataloader=DataLoader(eval_dataset,batch_size=batch_size,shuffle=True,drop_last=True)
   

2.3 观察训练集

In [7]
def show_images(imgs):
    #imgs是一个列表,列表里是多个tensor对象
    #定义总的方框的大小
    plt.figure(figsize=(3*len(imgs),3), dpi=80)    for i in range(len(imgs)):        #定义小方框
        plt.subplot(1, len(imgs), i + 1)        #matplotlib库只能识别numpy类型的数据,tensor无法识别
        imgs[i]=imgs[i].numpy()        #展示取出的数据
        plt.imshow(imgs[i][0],cmap="gray",aspect="auto")        #设置坐标轴
        plt.xticks([])
        plt.yticks([])

data,label=next(train_dataloader())
show_images([data[0],label[0]])
       
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/cbook/__init__.py:2349: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working
  if isinstance(obj, collections.Iterator):
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/cbook/__init__.py:2366: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working
  return list(data) if isinstance(data, collections.MappingView) else data
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/image.py:425: DeprecationWarning: np.asscalar(a) is deprecated since NumPy v1.16, use a.item() instead
  a_min = np.asscalar(a_min.astype(scaled_dtype))
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/image.py:426: DeprecationWarning: np.asscalar(a) is deprecated since NumPy v1.16, use a.item() instead
  a_max = np.asscalar(a_max.astype(scaled_dtype))
       
<Figure size 480x240 with 2 Axes>
               

3. 搭建模型

3.1 unet 结构图

采用UNet完成磁瓦图片分割 - php中文网        
In [8]
import paddlefrom paddle import nnclass Encoder(nn.Layer):# 下采样
    def __init__(self, num_channels, num_filters):
        super(Encoder,self).__init__()#继承父类的初始化
        # 图像通道数变为num_filters,长宽不变
        self.conv1 = nn.Conv2D(in_channels=num_channels,
                                out_channels=num_filters,
                                kernel_size=3,
                                stride=1,
                                padding=1)
        self.bn1 = nn.BatchNorm(num_filters,act='relu')
        self.conv2 = nn.Conv2D(in_channels=num_filters,
                                out_channels=num_filters,
                                kernel_size=3,
                                stride=1,
                                padding=1)
        self.bn2 = nn.BatchNorm(num_filters,act='relu')
        self.pool = nn.MaxPool2D(kernel_size=2,stride=2,padding='SAME')# 图像长宽缩小一半,通道数不变

    
    def forward(self, inputs):    
        x = self.conv1(inputs)
        x = self.bn1(x)
        x = self.conv2(x)
        x = self.bn2(x)        # 输出1用于拼接
        x_conv = x        # 输出2用于下采样
        x_pool =self.pool(x)        return x_conv, x_poolclass Decoder(nn.Layer):
    def __init__(self, num_channels,num_filters):
        super(Decoder,self).__init__()
        self.up = nn.Conv2DTranspose(in_channels=num_channels,
                                    out_channels=num_filters,
                                    kernel_size=2,
                                    stride=2,
                                    padding=0)# 图片分辨率变大一倍,通道数不变
        self.conv1 = nn.Conv2D(in_channels=num_filters*2,
                                out_channels=num_filters,
                                kernel_size=3,
                                stride=1,
                                padding=1)# 因为拼接的缘故所以是2倍的关系
        self.bn1 = nn.BatchNorm(num_filters,act='relu')
        self.conv2 = nn.Conv2D(in_channels=num_filters,
                                out_channels=num_filters,
                                kernel_size=3,
                                stride=1,
                                padding=1)
        self.bn2 = nn.BatchNorm(num_filters,act='relu')    def forward(self, input_conv, input_pool):
        
        x = self.up(input_pool)        # 计算上采样后,与input_conv的分辨率差值,然后进行填充
        h_diff = (input_conv.shape[2]-x.shape[2])
        w_diff = (input_conv.shape[3]-x.shape[3])        # 对上下左右表示填充0
        pad = nn.Pad2D(padding=[h_diff//2,h_diff-h_diff//2,w_diff//2,w_diff-w_diff//2])
        x = pad(x)
        x = paddle.concat([input_conv,x],axis=1)
        x = self.conv1(x)
        x = self.bn1(x)
        x = self.conv2(x)
        x = self.bn2(x)        return xclass UNet(nn.Layer):
    def __init__(self, num_classes=2):
        super(UNet,self).__init__()
        self.down1 = Encoder(num_channels=3, num_filters=64)
        self.down2 = Encoder(num_channels=64, num_filters=128)
        self.down3 = Encoder(num_channels=128, num_filters=256)
        self.down4 = Encoder(num_channels= 256, num_filters=512)


        self.mid_conv1 = nn.Conv2D(512,1024,1)
        self.mid_bn1 = nn.BatchNorm(1024,act='relu')
        self.mid_conv2 = nn.Conv2D(1024,1024,1)
        self.mid_bn2 = nn.BatchNorm(1024,act='relu')

        self.up4 = Decoder(1024,512)
        self.up3 = Decoder(512,256)
        self.up2 = Decoder(256,128)
        self.up1 = Decoder(128,64)        # 使用1*1卷积,softmax做分类
        self.last_conv = nn.Conv2D(64,num_classes,1)    

    def forward(self, inputs):
        x1, x = self.down1(inputs)
        x2, x = self.down2(x)
        x3, x = self.down3(x)
        x4, x = self.down4(x)

        x = self.mid_conv1(x)
        x = self.mid_bn1(x)
        x = self.mid_conv2(x)
        x = self.mid_bn2(x)

        x = self.up4(x4, x)
        x = self.up3(x3, x)
        x = self.up2(x2, x)
        x = self.up1(x1, x)
        
        x = self.last_conv(x)        return  x    
# 打印模型结构,需要不打印模型结构注释下一行即可paddle.summary(UNet(2), (1, 3, 128, 128))
       
--------------------------------------------------------------------------------------------------------------
  Layer (type)                 Input Shape                          Output Shape                 Param #    
==============================================================================================================
    Conv2D-1               [[1, 3, 128, 128]]                    [1, 64, 128, 128]                1,792     
   BatchNorm-1             [[1, 64, 128, 128]]                   [1, 64, 128, 128]                 256      
    Conv2D-2               [[1, 64, 128, 128]]                   [1, 64, 128, 128]               36,928     
   BatchNorm-2             [[1, 64, 128, 128]]                   [1, 64, 128, 128]                 256      
   MaxPool2D-1             [[1, 64, 128, 128]]                    [1, 64, 64, 64]                   0       
    Encoder-1              [[1, 3, 128, 128]]           [[1, 64, 128, 128], [1, 64, 64, 64]]        0       
    Conv2D-3                [[1, 64, 64, 64]]                     [1, 128, 64, 64]               73,856     
   BatchNorm-3             [[1, 128, 64, 64]]                     [1, 128, 64, 64]                 512      
    Conv2D-4               [[1, 128, 64, 64]]                     [1, 128, 64, 64]               147,584    
   BatchNorm-4             [[1, 128, 64, 64]]                     [1, 128, 64, 64]                 512      
   MaxPool2D-2             [[1, 128, 64, 64]]                     [1, 128, 32, 32]                  0       
    Encoder-2               [[1, 64, 64, 64]]           [[1, 128, 64, 64], [1, 128, 32, 32]]        0       
    Conv2D-5               [[1, 128, 32, 32]]                     [1, 256, 32, 32]               295,168    
   BatchNorm-5             [[1, 256, 32, 32]]                     [1, 256, 32, 32]                1,024     
    Conv2D-6               [[1, 256, 32, 32]]                     [1, 256, 32, 32]               590,080    
   BatchNorm-6             [[1, 256, 32, 32]]                     [1, 256, 32, 32]                1,024     
   MaxPool2D-3             [[1, 256, 32, 32]]                     [1, 256, 16, 16]                  0       
    Encoder-3              [[1, 128, 32, 32]]           [[1, 256, 32, 32], [1, 256, 16, 16]]        0       
    Conv2D-7               [[1, 256, 16, 16]]                     [1, 512, 16, 16]              1,180,160   
   BatchNorm-7             [[1, 512, 16, 16]]                     [1, 512, 16, 16]                2,048     
    Conv2D-8               [[1, 512, 16, 16]]                     [1, 512, 16, 16]              2,359,808   
   BatchNorm-8             [[1, 512, 16, 16]]                     [1, 512, 16, 16]                2,048     
   MaxPool2D-4             [[1, 512, 16, 16]]                      [1, 512, 8, 8]                   0       
    Encoder-4              [[1, 256, 16, 16]]            [[1, 512, 16, 16], [1, 512, 8, 8]]         0       
    Conv2D-9                [[1, 512, 8, 8]]                      [1, 1024, 8, 8]                525,312    
   BatchNorm-9              [[1, 1024, 8, 8]]                     [1, 1024, 8, 8]                 4,096     
    Conv2D-10               [[1, 1024, 8, 8]]                     [1, 1024, 8, 8]               1,049,600   
  BatchNorm-10              [[1, 1024, 8, 8]]                     [1, 1024, 8, 8]                 4,096     
Conv2DTranspose-1           [[1, 1024, 8, 8]]                     [1, 512, 16, 16]              2,097,664   
    Conv2D-11              [[1, 1024, 16, 16]]                    [1, 512, 16, 16]              4,719,104   
  BatchNorm-11             [[1, 512, 16, 16]]                     [1, 512, 16, 16]                2,048     
    Conv2D-12              [[1, 512, 16, 16]]                     [1, 512, 16, 16]              2,359,808   
  BatchNorm-12             [[1, 512, 16, 16]]                     [1, 512, 16, 16]                2,048     
    Decoder-1      [[1, 512, 16, 16], [1, 1024, 8, 8]]            [1, 512, 16, 16]                  0       
Conv2DTranspose-2          [[1, 512, 16, 16]]                     [1, 256, 32, 32]               524,544    
    Conv2D-13              [[1, 512, 32, 32]]                     [1, 256, 32, 32]              1,179,904   
  BatchNorm-13             [[1, 256, 32, 32]]                     [1, 256, 32, 32]                1,024     
    Conv2D-14              [[1, 256, 32, 32]]                     [1, 256, 32, 32]               590,080    
  BatchNorm-14             [[1, 256, 32, 32]]                     [1, 256, 32, 32]                1,024     
    Decoder-2     [[1, 256, 32, 32], [1, 512, 16, 16]]            [1, 256, 32, 32]                  0       
Conv2DTranspose-3          [[1, 256, 32, 32]]                     [1, 128, 64, 64]               131,200    
    Conv2D-15              [[1, 256, 64, 64]]                     [1, 128, 64, 64]               295,040    
  BatchNorm-15             [[1, 128, 64, 64]]                     [1, 128, 64, 64]                 512      
    Conv2D-16              [[1, 128, 64, 64]]                     [1, 128, 64, 64]               147,584    
  BatchNorm-16             [[1, 128, 64, 64]]                     [1, 128, 64, 64]                 512      
    Decoder-3     [[1, 128, 64, 64], [1, 256, 32, 32]]            [1, 128, 64, 64]                  0       
Conv2DTranspose-4          [[1, 128, 64, 64]]                    [1, 64, 128, 128]               32,832     
    Conv2D-17             [[1, 128, 128, 128]]                   [1, 64, 128, 128]               73,792     
  BatchNorm-17             [[1, 64, 128, 128]]                   [1, 64, 128, 128]                 256      
    Conv2D-18              [[1, 64, 128, 128]]                   [1, 64, 128, 128]               36,928     
  BatchNorm-18             [[1, 64, 128, 128]]                   [1, 64, 128, 128]                 256      
    Decoder-4     [[1, 64, 128, 128], [1, 128, 64, 64]]          [1, 64, 128, 128]                  0       
    Conv2D-19              [[1, 64, 128, 128]]                    [1, 2, 128, 128]                 130      
==============================================================================================================
Total params: 18,472,450
Trainable params: 18,460,674
Non-trainable params: 11,776
--------------------------------------------------------------------------------------------------------------
Input size (MB): 0.19
Forward/backward pass size (MB): 174.75
Params size (MB): 70.47
Estimated Total Size (MB): 245.40
--------------------------------------------------------------------------------------------------------------
       
{'total_params': 18472450, 'trainable_params': 18460674}
               

3.2 采用高层API训练模型

注意:本段落的运行会清空之前的所有数据文件,并重新创建空的文件夹!同时该段落的训练时长与epochs的大小高度相关,请耐心等待训练完成!
若需要查看的loss,acc需要,打开左侧的可视化,路径设置为/home/aistudio/data/train_log,即可
采用UNet完成磁瓦图片分割 - php中文网 采用UNet完成磁瓦图片分割 - php中文网        

In [9]
# 判断日志文件是否存在,存在就删除,然后创建空的文件夹用于存log文件def del_file(path):
    if os.path.exists(path):
        shutil.rmtree(path)
    os.mkdir(path)

del_file(log_path)
del_file(modle_and_weight_path)
del_file(test_path)print(paddle.device.get_device())
paddle.device.set_device('gpu:0')# 创建调用模型modle = paddle.Model(UNet(2))# opt = paddle.optimizer.Momentum(learning_rate=1e-3,parameters=modle.parameters(),weight_decay=1e-2)opt = paddle.optimizer.AdamW(learning_rate=1e-3,parameters=modle.parameters(),weight_decay=1e-2)

modle.prepare(opt, paddle.nn.CrossEntropyLoss(axis=1),metrics=paddle.metric.Accuracy())# 创建回调,将训练过程中的val_loss,train_loss,val_acc,train_acc,保存到文件夹/home/aistudio/data/train_log中callback = paddle.callbacks.VisualDL(log_dir = log_path)# 请耐心等待它训练完成,若需要观察每次训练的acc与loss,可以将verbose设置为1,(申请精品项目输出不能太长,所以就默认为0,也就是不打印)# save_freq=5,每训练5次,保存一次模型# 模型的权重文件保存在/home/aistudio/data/modle_weight# 训练log_freq次打印一次结果modle.fit(train_dataloader,
        eval_dataloader,
        epochs=epochs,
        verbose=0,
        save_dir = modle_and_weight_path,
        save_freq=5,
        log_freq=1,
        callbacks=callback)
       
cpu
       
---------------------------------------------------------------------------ValueError Traceback (most recent call last)/tmp/ipykernel_1308/2477755552.py in <module> 12 13 print(paddle.device.get_device()) ---> 14paddle.device.set_device('gpu:0') 15 16 /opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/device/__init__.py in set_device(device) 314 data = paddle.stack([x1,x2], axis=1) 315 """ --> 316  place =_convert_to_place(device) 317 framework._set_expected_place(place) 318 return place /opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/device/__init__.py in _convert_to_place(device) 257 raise ValueError( 258  "The device should not be {}, since PaddlePaddle is " --> 259 "not compiled with CUDA".format(avaliable_gpu_device)) 260 device_info_list = device.split(':', 1) 261 device_id = device_info_list[1] ValueError: The device should not be <re.Match object; span=(0, 5), match='gpu:0'>, since PaddlePaddle is not compiled with CUDA

3.3 预测图象

  • 将测试集预测后的数据放入地址为:test——path中。
    预测图片为: 采用UNet完成磁瓦图片分割 - php中文网            
In [ ]
# 预测图像保存绝对路径if os.path.exists(test_path):
    shutil.rmtree(test_path)
os.mkdir(test_path)#读取模型参数文件路径save_dir = test_path
checkpoint_path = modle_and_weight_path + "/final"#实例化,U-Netmodel = paddle.Model(UNet(2))       

# 加载最后训练的模型model.load(checkpoint_path)# 生成预测图片到文件夹/home/aistudio/data/pre_test_label# img格式为:【3,128,128】for i,img in tqdm(enumerate(test_dataset)):    #print(paddle.to_tensor(img[0]).shape)
    img=paddle.to_tensor(img[0]).unsqueeze(0)
    predict=np.array(model.predict_batch(img)).squeeze(0).squeeze(0)
    predict=predict.argmax(axis=0)
    image_path=test_dataset.path[i]
    path_lst=image_path[0].split("/")
    save_path=os.path.join(save_dir,path_lst[-1][:-5])+"p.jpg"
    cv2.imwrite(save_path,predict*255)
   

3.4 评估指标计算

包含常用指标:

  • precision: 预测结果的平均精度
  • recall: 预测结果的平均召回率
  • f1score: 预测结果的平均 F1 值
  • accuracy: 预测结果的整体准确率
  • IOU:预测结果的平均交并比**
In [ ]
# # 评价网络模型结果#########################################################################def evaluate_segmentation_performance(pred_masks, true_masks):
    """
    计算图像分割性能评估指标

    参数:
        - pred_masks: numpy 数组,表示预测的掩码图像,形状为 (N, H, W, 1),取值为 0 或 1
        - true_masks: numpy 数组,表示真实的掩码图像,形状为 (N, H, W, 1),取值为 0 或 1

    返回值:
        - precision: 预测结果的平均精度
        - recall: 预测结果的平均召回率
        - f1score: 预测结果的平均 F1 值
        - accuracy: 预测结果的整体准确率
        - IOU:预测结果的平均交并比
    """
    # 将预测结果和真实结果转换为 int 类型,以避免出现数据类型错误
    pred_masks = np.round(pred_masks).astype(np.int32)
    true_masks = np.round(true_masks).astype(np.int32)    # 计算 TP,FP 和 FN
    TP = np.sum((pred_masks == 1) & (true_masks == 1))
    FP = np.sum((pred_masks == 1) & (true_masks == 0))
    FN = np.sum((pred_masks == 0) & (true_masks == 1))    print(TP, FP, FN)    # 计算准确率、召回率和 F1 值
    precision = TP / (TP + FP)
    recall = TP / (TP + FN)
    f1score = 2 * precision * recall / (precision + recall)    # 计算整体准确率
    accuracy = np.mean(pred_masks == true_masks)    # 计算 IOU
    intersection = np.sum(pred_masks & true_masks)
    union = np.sum(pred_masks | true_masks)
    iou = intersection / union    return precision, recall, f1score, accuracy, iou
   
In [ ]
# 提取经过(resize,标签二值化)处理的图片列表eval_img_list = [test_dataset.__getitem__(i)[0] for i in range(len(test_dataset))]
eval_label_list = [test_dataset.__getitem__(i)[1] for i in range(len(test_dataset))]# img灰度--->[150,3,128,128]img = paddle.to_tensor(eval_img_list)# label二值--->[150,1,128,128]label = np.array(paddle.to_tensor(eval_label_list))# predict其中2代表两通道预测各类别的概率--->[150,2,128,128]predict = np.array(model.predict_batch(img)).squeeze(0)# pre_img_list-->[150,128,128,1]pre_img_list = paddle.to_tensor([predict[i].argmax(axis=0) for i in range(len(predict))]).unsqueeze(-1)# pre_img_list-->[150,1,128,128]pre_img_list = np.array(pre_img_list.transpose((0, 3, 1, 2)))# 计算指标precision, recall, f1score, accuracy, iou = evaluate_segmentation_performance(pre_img_list, label)print('unet评价指标为:\nP:{},\nR:{},\nF1:{},\nACC:{},\nIOU:{}'.format(precision, recall, f1score, accuracy, iou))
   
In [ ]
<br/>
   

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

49

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

89

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

276

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

59

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

99

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

105

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

230

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

619

2026.03.04

AI安装教程大全
AI安装教程大全

2026最全AI工具安装教程专题:包含各版本AI绘图、AI视频、智能办公软件的本地化部署手册。全篇零基础友好,附带最新模型下载地址、一键安装脚本及常见报错修复方案。每日更新,收藏这一篇就够了,让AI安装不再报错!

173

2026.03.04

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号