小熊飞桨练习册-01手写数字识别

小熊飞桨练习册-01手写数字识别

简介

小熊飞桨练习册-01手写数字识别,本项目开发和测试均在 Ubuntu 20.04 系统下进行。
项目最新代码查看主页:小熊飞桨练习册
百度飞桨 AI Studio 主页:小熊飞桨练习册-01手写数字识别
Ubuntu 系统安装 CUDA 参考:Ubuntu 百度飞桨和 CUDA 的安装

文件说明

文件 说明
train.py 训练程序
test.py 测试程序
report.py 报表程序
get-data.sh 获取数据到 dataset 目录下
check-data.sh 检查 dataset 目录下的数据是否存在
mod/lenet.py LeNet 网络模型
mod/dataset.py MNIST 手写数据集解析
mod/utils.py 杂项
mod/config.py 配置
mod/report.py 结果报表
dataset 数据集目录
params 模型参数保存目录
log VisualDL 日志保存目录

数据集

数据集来源于百度飞桨公共数据集:经典MNIST数据集

获取数据

如果运行在本地计算机,下载完数据,文件放到 dataset 目录下,在项目目录下运行下面脚本。
如果运行在百度 AI Studio 环境,查看 data 目录是否有数据,在项目目录下运行下面脚本。

bash get-data.sh

检查数据

获取数据完毕后,在项目目录下运行下面脚本,检查 dataset 目录下的数据是否存在。

bash check-data.sh

网络模型

网络模型使用 LeNet 网络模型 来源百度飞桨教程和网络
LeNet 网络模型 参考: 百度飞桨教程

import paddle
import paddle.nn as nn
import paddle.nn.functional as F


# LeNet 网络模型
class LeNet(nn.Layer):
    def __init__(self, num_classes=10):
        super(LeNet, self).__init__()
        if num_classes < 1:
            raise Exception("分类数量 num_classes 必须大于 0: {}".format(num_classes))
        self.num_classes = num_classes
        self.conv1 = nn.Conv2D(
            in_channels=1, out_channels=6, kernel_size=5, stride=1)
        self.max_pool1 = nn.MaxPool2D(kernel_size=2, stride=2)
        self.conv2 = nn.Conv2D(
            in_channels=6, out_channels=16, kernel_size=5, stride=1)
        self.max_pool2 = nn.MaxPool2D(kernel_size=2, stride=2)
        self.conv3 = nn.Conv2D(
            in_channels=16, out_channels=120, kernel_size=4, stride=1)
        self.fc1 = nn.Linear(in_features=120, out_features=64)
        self.fc2 = nn.Linear(in_features=64, out_features=num_classes)

    def forward(self, x):
        x = self.conv1(x)
        x = F.relu(x)
        x = self.max_pool1(x)
        x = self.conv2(x)
        x = F.relu(x)
        x = self.max_pool2(x)
        x = self.conv3(x)
        x = F.relu(x)
        x = paddle.flatten(x, start_axis=1, stop_axis=-1)
        x = self.fc1(x)
        x = F.relu(x)
        x = self.fc2(x)
        return x

数据集解析

数据集解析方法来源百度飞桨教程和网络,和百度飞桨 MNIST 数据集稍有不同

import paddle
import os
import struct
import numpy as np


class MNIST(paddle.io.Dataset):
    """
    MNIST 手写数据集解析, 继承 paddle.io.Dataset 类
    """

    def __init__(self,
                 images_path: str,
                 labels_path: str,
                 transform=None,
                 ):
        """
        构造函数,定义数据集大小

        Args:
            images_path (str): 图像集路径
            labels_path (str): 标签集路径
            transform (Compose, optional): 转换数据的操作组合, 默认 None
        """
        super(MNIST, self).__init__()
        self.images_path = images_path
        self.labels_path = labels_path
        self._check_path(images_path, "数据路径错误")
        self._check_path(labels_path, "标签路径错误")
        self.transform = transform
        self.images, self.labels = self.parse_dataset(images_path, labels_path)

    def __getitem__(self, idx):
        """
        获取单个数据和标签

        Args:
            idx (Any): 索引

        Returns:
            image (float32): 图像
            label (int64): 标签
        """
        image, label = self.images[idx], self.labels[idx]
        # 这里 reshape 是2维 [28 ,28]
        image = np.reshape(image, [28, 28])
        if self.transform is not None:
            image = self.transform(image)
        # label.astype 如果是整型,只能是 int64
        return image.astype('float32'), label.astype('int64')

    def __len__(self):
        """
        数据数量

        Returns:
            int: 数据数量
        """
        return len(self.labels)

    def _check_path(self, path: str, msg: str):
        """
        检查路径是否存在

        Args:
            path (str): 路径
            msg (str, optional): 异常消息

        Raises:
            Exception: 路径错误, 异常
        """
        if not os.path.exists(path):
            raise Exception("{}: {}".format(msg, path))

    @staticmethod
    def parse_dataset(images_path: str, labels_path: str):
        """
        数据集解析

        Args:
            images_path (str): 图像集路径
            labels_path (str): 标签集路径

        Returns:
            images: 图像集
            labels: 标签集
        """
        with open(images_path, 'rb') as imgpath:
            # 解析图像集
            magic, num, rows, cols = struct.unpack('>IIII', imgpath.read(16))
            # 这里 reshape 是1维 [786]
            images = np.fromfile(
                imgpath, dtype=np.uint8).reshape(num, rows * cols)
        with open(labels_path, 'rb') as lbpath:
            # 解析标签集
            magic, n = struct.unpack('>II', lbpath.read(8))
            labels = np.fromfile(lbpath, dtype=np.uint8)
        return images, labels

配置模块

可以查看修改 mod/config.py 文件,有详细的说明

开始训练

运行 train.py 文件,查看命令行参数加 -h

python3 train.py
  --cpu             是否使用 cpu 计算,默认使用 CUDA
  --learning-rate   学习率,默认 0.001
  --epochs          训练几轮,默认 2 轮
  --batch-size      一批次数量,默认 128
  --num-workers     线程数量,默认 2
  --no-save         是否保存模型参数,默认保存, 选择后不保存模型参数
  --load-dir        读取模型参数,读取 params 目录下的子文件夹, 默认不读取
  --log             是否输出 VisualDL 日志,默认不输出
  --summary         输出网络模型信息,默认不输出,选择后只输出信息,不会开启训练

测试模型

运行 test.py 文件,查看命令行参数加 -h

python3 test.py
  --cpu           是否使用 cpu 计算,默认使用 CUDA
  --batch-size    一批次数量,默认 128
  --num-workers   线程数量,默认 2
  --load-dir      读取模型参数,读取 params 目录下的子文件夹, 默认 best 目录

查看结果报表

运行 report.py 文件,可以显示 params 目录下所有子目录的 report.json
加参数 --best 根据 loss 最小的模型参数保存在 best 子目录下。

python3 report.py

report.json 说明

键名 说明
id 根据时间生成的字符串 ID
loss 本次训练的 loss 值
acc 本次训练的 acc 值
epochs 本次训练的 epochs 值
batch_size 本次训练的 batch_size 值
learning_rate 本次训练的 learning_rate 值

VisualDL 可视化分析工具

  • 安装和使用说明参考:VisualDL
  • 训练的时候加上参数 --log
  • 如果是 AI Studio 环境训练的把 log 目录下载下来,解压缩后放到本地项目目录下 log 目录
  • 在项目目录下运行下面命令
  • 然后根据提示的网址,打开浏览器访问提示的网址即可
visualdl --logdir ./log
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章