0

0

基于飞桨2.0的食品图片分类实战应用

P粉084495128

P粉084495128

发布时间:2025-07-23 09:23:16

|

750人浏览过

|

来源于php中文网

原创

本项目基于飞桨2.0,使用food-11数据集(含11类食品,共16643张图片)训练分类模型。通过搭建简单cnn,经数据预处理(求均值标准差、归一化等)、调整训练参数优化,最终在验证集达到50%-55%正确率,实现对面包、肉类等11类食品的分类,并完成模型保存与测试展示。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

基于飞桨2.0的食品图片分类实战应用 - php中文网

基于飞桨2.0的食品图片分类实战应用

项目描述

本项目使用的是李宏毅机器学习中作业三的数据集

包含(面包,乳制品,甜点,鸡蛋,油炸食品,肉类,面条/意大利面,米饭,海鲜,汤,蔬菜/水果)十一类的食品数据,对其进行训练分类

搭建训练一个简单的卷积神经网络,实现这十一类食物图片的分类

项目的优化

1.对各通道进行求均值和标准差

2.更改训练参数

课程链接

课程链接:https://aistudio.baidu.com/aistudio/course/introduce/1978

数据集介绍

本次使用的数据集为food-11数据集,共有11类

Bread, Dairy product, Dessert, Egg, Fried food, Meat, Noodles/Pasta, Rice, Seafood, Soup, and Vegetable/Fruit.

(面包,乳制品,甜点,鸡蛋,油炸食品,肉类,面条/意大利面,米饭,海鲜,汤,蔬菜/水果)

TemPolor
TemPolor

AI音乐生成器,一键创作免版税音乐

下载

Training set: 9866张

Validation set: 3430张

Testing set: 3347张

数据格式

下载 zip 档后解压缩会有三个资料夹,分别为training、validation 以及 testing

training 以及 validation 中的照片名称格式为 [类别]_[编号].jpg,例如 3_100.jpg 即为类别 3 的照片(编号不重要)

In [ ]
!unzip -d work data/data76472/food-11.zip # 解压缩food-11数据集
   
In [ ]
!rm -rf work/__MACOSX
   

第一步 必要的库引入,数据读取

  1. 读取数据,新建路径+标签的txt的三个文件
  2. 核实数据量与题目所给是否相同
In [1]
import osimport paddleimport paddle.vision.transforms as Timport numpy as npfrom PIL import Imageimport paddleimport paddle.nn.functional as Ffrom sklearn.utils import shuffle#在python中运行代码经常会遇到的情况是——代码可以正常运行但是会提示警告,有时特别讨厌。#那么如何来控制警告输出呢?其实很简单,python通过调用warnings模块中定义的warn()函数来发出警告。我们可以通过警告过滤器进行控制是否发出警告消息。import warnings
warnings.filterwarnings("ignore")

data_path = 'work/food-11/'  # 设置初始文件地址character_folders = os.listdir(data_path)  # 查看地址下文件夹# 每次运行前删除txt,重新新建标签列表if(os.path.exists('./training_set.txt')):  # 判断有误文件
    os.remove('./training_set.txt')  # 删除文件if(os.path.exists('./validation_set.txt')):
    os.remove('./validation_set.txt')if(os.path.exists('./testing_set.txt')):
    os.remove('./testing_set.txt')for character_folder in character_folders:  #循环文件夹列表
    with open(f'./{character_folder}_set.txt', 'a') as f_train:  # 新建文档以追加的形式写入
        character_imgs = os.listdir(os.path.join(data_path,character_folder))  # 读取文件夹下面的内容
        count = 0
        if character_folder in 'testing':  # 检查是否是测试集
            for img in character_imgs:  # 循环列表
                f_train.write(os.path.join(data_path,character_folder,img) + '\n')  # 把地址写入文档
                count += 1
            print(character_folder,count)        else:            for img in character_imgs:  # 检查是否是训练集和测试集
                f_train.write(os.path.join(data_path,character_folder,img) + '\t' + img[0:img.rfind('_', 1)] + '\n')  # 写入地址及标签
                count += 1
            print(character_folder,count)
       
testing 3347
training 9866
validation 3430
       

第二步 数据预处理

下面使用paddle.vision.transforms.Compose做数据预处理,主要是这几个部分:

  1. 以RGB格式加载图片
  2. 将图片resize,从224x224变成100x100
  3. 进行transpose操作,从HWC格式转变成CHW格式
  4. 将图片的所有像素值进行除以255进行归一化
  5. 对各通道进行减均值、除标准差
In [2]
# 只有第一次需要执行 一次需要一分钟多import numpy as npimport cv2import os
 
img_h, img_w = 100, 100   #适当调整,影响不大means, stdevs = [], []
img_list = []
 
imgs_path = 'work/food-11/training'imgs_path_list = os.listdir(imgs_path)
 
len_ = len(imgs_path_list)
i = 0for item in imgs_path_list:
    img = cv2.imread(os.path.join(imgs_path,item))
    img = cv2.resize(img,(img_w,img_h))
    img = img[:, :, :, np.newaxis]
    img_list.append(img)
    i += 1
    # print(i,'/',len_)imgs_path = 'work/food-11/testing'imgs_path_list = os.listdir(imgs_path)
 
len_ = len(imgs_path_list)
i = 0for item in imgs_path_list:
    img = cv2.imread(os.path.join(imgs_path,item))
    img = cv2.resize(img,(img_w,img_h))
    img = img[:, :, :, np.newaxis]
    img_list.append(img)
    i += 1imgs = np.concatenate(img_list, axis=3)
imgs = imgs.astype(np.float32) / 255.
 for i in range(3):
    pixels = imgs[:, :, i, :].ravel()  # 拉成一行
    means.append(np.mean(pixels))
    stdevs.append(np.std(pixels)) 
# BGR --> RGB , CV读取的需要转换,PIL读取的不用转换means.reverse()
stdevs.reverse() 
print("normMean = {}".format(means))print("normStd = {}".format(stdevs))# 只需要执行一次代码记录住数据即可# normMean = [0.5560434, 0.4515875, 0.34473255]# normStd = [0.27080873, 0.2738704, 0.280732]
       
normMean = [0.5560434, 0.4515875, 0.34473255]
normStd = [0.27080873, 0.2738704, 0.280732]
       
In [3]
# 定义数据预处理data_transforms = T.Compose([
    T.Resize(size=(100, 100)),
    T.RandomHorizontalFlip(100),
    T.RandomVerticalFlip(100),
    T.RandomRotation(90),
    T.CenterCrop(100),
    T.Transpose(),    # HWC -> CHW
    T.Normalize(
        mean=[0.5560434, 0.4515875, 0.34473255],      #归一化 上个模块所求的均值与标准差 
        std=[0.27080873, 0.2738704, 0.280732],
        to_rgb=True)    
        #计算过程:output[channel] = (input[channel] - mean[channel]) / std[channel]])
   

第三步 继承paddle.io.Dataset对数据集做处理

对数据集进行处理

In [4]
class FoodDataset(paddle.io.Dataset):
    """
    数据集类的定义
    """
    def __init__(self, mode='training_set'):
        """
        初始化函数
        """
        self.data = []        with open(f'{mode}_set.txt') as f:            for line in f.readlines():
                info = line.strip().split('\t')                if len(info) > 0:
                    self.data.append([info[0].strip(), info[1].strip()])  
                      
    def __getitem__(self, index):
        """
        读取图片,对图片进行归一化处理,返回图片和标签
        """
        image_file, label = self.data[index]  # 获取数据
        img = Image.open(image_file).convert('RGB')  # 读取图片
        
        return data_transforms(img).astype('float32'), np.array(label, dtype='int64')    def __len__(self):
        """
        获取样本总数
        """
        return len(self.data)

train_dataset = FoodDataset(mode='training')
train_loader = paddle.io.DataLoader(train_dataset, places=paddle.CPUPlace(), batch_size=64, shuffle=True, num_workers=0)
eval_dataset = FoodDataset(mode='validation')
val_loader = paddle.io.DataLoader(train_dataset, places=paddle.CPUPlace(), batch_size=64, shuffle=True, num_workers=0)# 查看训练和验证集数据的大小print('train size:', train_dataset.__len__())print('eval size:', eval_dataset.__len__())
       
train size: 9866
eval size: 3430
       

第四步 自行搭建CNN神经网络

In [5]
# 继承paddle.nn.Layer类,用于搭建模型class MyCNN(paddle.nn.Layer):
    def __init__(self):
        super(MyCNN,self).__init__()
        self.conv0 = paddle.nn.Conv2D(in_channels=3, out_channels=20, kernel_size=5, padding=0)  # 二维卷积层
        self.pool0 = paddle.nn.MaxPool2D(kernel_size =2, stride =2)  # 最大池化层
        self._batch_norm_0 = paddle.nn.BatchNorm2D(num_features = 20)  # 归一层

        self.conv1 = paddle.nn.Conv2D(in_channels=20, out_channels=50, kernel_size=5, padding=0)
        self.pool1 = paddle.nn.MaxPool2D(kernel_size =2, stride =2)
        self._batch_norm_1 = paddle.nn.BatchNorm2D(num_features = 50)

        self.conv2 = paddle.nn.Conv2D(in_channels=50, out_channels=50, kernel_size=5, padding=0)
        self.pool2 = paddle.nn.MaxPool2D(kernel_size =2, stride =2)
        self.fc1 = paddle.nn.Linear(in_features=4050, out_features=218)  # 线性层
        self.fc2 = paddle.nn.Linear(in_features=218, out_features=100)
        self.fc3 = paddle.nn.Linear(in_features=100, out_features=11)    
    def forward(self,input):
        # 将输入数据的样子该变成[1,3,100,100]
        input = paddle.reshape(input,shape=[-1,3,100,100])  # 转换维读
        # print(input.shape)
        x = self.conv0(input)  #数据输入卷积层
        x = F.relu(x)  # 激活层
        x = self.pool0(x)  # 池化层
        x = self._batch_norm_0(x)  # 归一层

        x = self.conv1(x)
        x = F.relu(x)
        x = self.pool1(x)
        x = self._batch_norm_1(x)

        x = self.conv2(x)
        x = F.relu(x)
        x = self.pool2(x)
        x = paddle.reshape(x, [x.shape[0], -1])        # print(x.shape)

        x = self.fc1(x)  # 线性层
        x = F.relu(x)
        x = self.fc2(x)
        x = F.relu(x)
        x = self.fc3(x)        #y = F.softmax(x)  # 分类器
        return x
   
In [6]
network = MyCNN()  # 模型实例化paddle.summary(network, (1,3,100,100))  # 模型结构查看
       
---------------------------------------------------------------------------
 Layer (type)       Input Shape          Output Shape         Param #    
===========================================================================
   Conv2D-1      [[1, 3, 100, 100]]    [1, 20, 96, 96]         1,520     
  MaxPool2D-1    [[1, 20, 96, 96]]     [1, 20, 48, 48]           0       
 BatchNorm2D-1   [[1, 20, 48, 48]]     [1, 20, 48, 48]          80       
   Conv2D-2      [[1, 20, 48, 48]]     [1, 50, 44, 44]        25,050     
  MaxPool2D-2    [[1, 50, 44, 44]]     [1, 50, 22, 22]           0       
 BatchNorm2D-2   [[1, 50, 22, 22]]     [1, 50, 22, 22]          200      
   Conv2D-3      [[1, 50, 22, 22]]     [1, 50, 18, 18]        62,550     
  MaxPool2D-3    [[1, 50, 18, 18]]      [1, 50, 9, 9]            0       
   Linear-1         [[1, 4050]]            [1, 218]           883,118    
   Linear-2          [[1, 218]]            [1, 100]           21,900     
   Linear-3          [[1, 100]]            [1, 11]             1,111     
===========================================================================
Total params: 995,529
Trainable params: 995,249
Non-trainable params: 280
---------------------------------------------------------------------------
Input size (MB): 0.11
Forward/backward pass size (MB): 3.37
Params size (MB): 3.80
Estimated Total Size (MB): 7.29
---------------------------------------------------------------------------
       
{'total_params': 995529, 'trainable_params': 995249}
               

第五步 模型配置以及训练

运行时长: 3小时22分钟19秒5毫秒

In [7]
# 实例化模型inputs = paddle.static.InputSpec(shape=[None, 3, 100, 100], name='inputs')
labels = paddle.static.InputSpec(shape=[None, 11], name='labels')
model = paddle.Model(network,inputs,labels)# 模型训练相关配置,准备损失计算方法,优化器和精度计算方法# 定义优化器scheduler = paddle.optimizer.lr.LinearWarmup(
        learning_rate=0.001, warmup_steps=100, start_lr=0, end_lr=0.001, verbose=True)
optim = paddle.optimizer.SGD(learning_rate=scheduler, parameters=model.parameters())# 配置模型model.prepare(
    optim,
    paddle.nn.CrossEntropyLoss(),
    paddle.metric.Accuracy()
    )

visualdl = paddle.callbacks.VisualDL(log_dir='visualdl_log')# 模型训练与评估model.fit(
        train_loader,  # 训练数据集
        val_loader,   # 评估数据集
        epochs=100,       # 训练的总轮次
        batch_size=128,  # 训练使用的批大小
        verbose=1,      # 日志展示形式
        callbacks=[visualdl])  # 设置可视化# 模型评估model.evaluate(eval_dataset, batch_size=128, verbose=1)#已运行,结果太长,已经删除,数据在下图显示
   

多次运行,在验证集正确率达到0.50-0.55之间

基于飞桨2.0的食品图片分类实战应用 - php中文网        

第六步 保存模型

In [8]
model.save('finetuning/mnist')  # 保存模型
   

第七步 测试集案例展示

In [9]
def opening():  # 读取图片函数
    with open(f'testing_set.txt') as f:  #读取文件夹
        test_img = []
        txt =  []        for line in f.readlines():  # 循环读取每一行
            img = Image.open(line[:-1])  # 打开图片
            img = data_transforms(img).astype('float32')
            txt.append(line[:-1])  # 生成列表
            test_img.append(img)  
        return txt,test_img
img_path, img = opening()  # 读取列表from PIL import Image
model_state_dict = paddle.load('finetuning/mnist.pdparams')  # 读取模型model = MyCNN()  # 实例化模型model.set_state_dict(model_state_dict) 
model.eval()
   
In [14]
site = 10  # 读取图片位置ceshi = model(paddle.to_tensor(img[site]))  # 测试print('预测的结果为:', np.argmax(ceshi.numpy()))  # 获取值value = ["面包","乳制品","甜点","鸡蛋","油炸食品","肉类","面条/意大利面","米饭","海鲜","汤","蔬菜/水果"]print('           ', value[np.argmax(ceshi.numpy())])

Image.open(img_path[site])  # 显示图片
       
预测的结果为: 9
            汤
       
<PIL.JpegImagePlugin.JpegImageFile image mode=RGB size=384x512 at 0x7F3BE0539C10>
               

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

2

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

24

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

80

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

187

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

339

2026.03.04

AI安装教程大全
AI安装教程大全

2026最全AI工具安装教程专题:包含各版本AI绘图、AI视频、智能办公软件的本地化部署手册。全篇零基础友好,附带最新模型下载地址、一键安装脚本及常见报错修复方案。每日更新,收藏这一篇就够了,让AI安装不再报错!

116

2026.03.04

Swift iOS架构设计与MVVM模式实战
Swift iOS架构设计与MVVM模式实战

本专题聚焦 Swift 在 iOS 应用架构设计中的实践,系统讲解 MVVM 模式的核心思想、数据绑定机制、模块拆分策略以及组件化开发方法。内容涵盖网络层封装、状态管理、依赖注入与性能优化技巧。通过完整项目案例,帮助开发者构建结构清晰、可维护性强的 iOS 应用架构体系。

180

2026.03.03

C++高性能网络编程与Reactor模型实践
C++高性能网络编程与Reactor模型实践

本专题围绕 C++ 在高性能网络服务开发中的应用展开,深入讲解 Socket 编程、多路复用机制、Reactor 模型设计原理以及线程池协作策略。内容涵盖 epoll 实现机制、内存管理优化、连接管理策略与高并发场景下的性能调优方法。通过构建高并发网络服务器实战案例,帮助开发者掌握 C++ 在底层系统与网络通信领域的核心技术。

31

2026.03.03

Golang 测试体系与代码质量保障:工程级可靠性建设
Golang 测试体系与代码质量保障:工程级可靠性建设

Go语言测试体系与代码质量保障聚焦于构建工程级可靠性系统。本专题深入解析Go的测试工具链(如go test)、单元测试、集成测试及端到端测试实践,结合代码覆盖率分析、静态代码扫描(如go vet)和动态分析工具,建立全链路质量监控机制。通过自动化测试框架、持续集成(CI)流水线配置及代码审查规范,实现测试用例管理、缺陷追踪与质量门禁控制,确保代码健壮性与可维护性,为高可靠性工程系统提供质量保障。

81

2026.02.28

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.9万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号