标签:iterable break with append == none lis 数据类型 关键字
在“手写数字识别”案例的快速入门中,我们调用飞桨提供的API(paddle.dataset.mnist)加载MNIST数据集。但在工业实践中,我们面临的任务和数据环境千差万别,需要编写适合当前任务的数据处理程序。
但是编写自定义的数据加载函数,一般会涉及以下四个部分:
在数据读取与处理前,首先要加载飞桨平台和数据处理库,可能使用的库都需要加载进来:
1 #数据处理部分之前的代码,加入部分数据处理的库 2 import paddle 3 import paddle.fluid as fluid 4 from paddle.fluid.dygraph.nn import FC 5 import numpy as np 6 import os 7 import gzip 8 import json 9 import random
实际保存到的数据存储格式多种多样,本节使用的mnist数据集以json格式存储在本地。
在‘./work/‘目录下读取文件名称为‘mnist.json.gz‘的MINST手写数字识别数据,文件格式是压缩后的json文件。文件内容包括:训练数据、验证数据、测试数据三部分,分别包含50000、10000、10000条手写数字数据和两个元素列表。
以训练集数据为例,它为两个元素的列表为[traim_imgs, train_labels]。
1 # 声明数据集文件位置 2 datafile = ‘./work/mnist.json.gz‘ 3 print(‘loading mnist dataset from {} ......‘.format(datafile)) 4 # 加载json数据文件 5 data = json.load(gzip.open(datafile)) 6 print(‘mnist dataset load done‘) 7 # 读取到的数据区分训练集,验证集,测试集 8 train_set, val_set, eval_set = data 9 10 # 数据集相关参数,图片高度IMG_ROWS, 图片宽度IMG_COLS 11 IMG_ROWS = 28 12 IMG_COLS = 28 13 14 # 打印数据信息 15 imgs, labels = train_set[0], train_set[1] 16 print("训练数据集数量: ", len(imgs),len(labels)) 17 18 # 观察验证集数量 19 imgs, labels = val_set[0], val_set[1] 20 print("验证数据集数量: ", len(imgs),len(labels)) 21 22 # 观察测试集数量 23 imgs, labels = val= eval_set[0], eval_set[1] 24 print("测试数据集数量: ", len(imgs),len(labels))
loading mnist dataset from ./work/mnist.json.gz ...... mnist dataset load done 训练数据集数量: 50000 50000 验证数据集数量: 10000 10000 测试数据集数量: 10000 10000
飞桨提供分批次读取数据函数paddle.batch,该接口是一个reader的装饰器,返回的reader将输入的reader的数据打包成指定的batch_size大小的批处理数据(batched.data)
在定义数据读取函数中,我们需要做很多事情,包括但不限于:
1 def load_data(mode=‘train‘): 2 3 datafile = ‘./work/mnist.json.gz‘ 4 print(‘loading mnist dataset from {} ......‘.format(datafile)) 5 # 加载json数据文件 6 data = json.load(gzip.open(datafile)) 7 print(‘mnist dataset load done‘) 8 # 读取到的数据区分训练集,验证集,测试集 9 train_set, val_set, eval_set = data 10 if mode==‘train‘: 11 # 获得训练数据集 12 imgs, labels = train_set[0], train_set[1] 13 elif mode==‘valid‘: 14 # 获得验证数据集 15 imgs, labels = val_set[0], val_set[1] 16 elif mode==‘eval‘: 17 # 获得测试数据集 18 imgs, labels = eval_set[0], eval_set[1] 19 else: 20 raise Exception("mode can only be one of [‘train‘, ‘valid‘, ‘eval‘]") 21 print("训练数据集数量: ", len(imgs)) 22 # 获得数据集长度 23 imgs_length = len(imgs) 24 # 定义数据集每个数据的序号,根据序号读取数据 25 index_list = list(range(imgs_length)) 26 # 读入数据时用到的批次大小 27 BATCHSIZE = 100 28 29 # 定义数据生成器 30 def data_generator(): 31 if mode == ‘train‘: 32 # 训练模式下打乱数据 33 random.shuffle(index_list) 34 imgs_list = [] 35 labels_list = [] 36 for i in index_list: 37 # 将数据处理成希望的格式,比如类型为float32,shape为[1, 28, 28] 38 img = np.reshape(imgs[i], [1, IMG_ROWS, IMG_COLS]).astype(‘float32‘) 39 label = np.reshape(labels[i], [1]).astype(‘float32‘) 40 imgs_list.append(img) 41 labels_list.append(label) 42 if len(imgs_list) == BATCHSIZE: 43 # 获得一个batchsize的数据,并返回 44 yield np.array(imgs_list), np.array(labels_list) 45 # 清空数据读取列表 46 imgs_list = [] 47 labels_list = [] 48 49 # 如果剩余数据的数目小于BATCHSIZE, 50 # 则剩余数据一起构成一个大小为len(imgs_list)的mini-batch 51 if len(imgs_list) > 0: 52 yield np.array(imgs_list), np.array(labels_list) 53 return data_generator
上面代码中mode参数可以取三个值中的一个,分别是train、valid、eval,选择的模式不同,读取的数据集也不同,为了兼容后面的代码,读取后的变量都相同,都是imgs、labels;
在数据生成器中,只有在mode为train的情况下我们才考虑把读取的数据打乱;接下来是数据格式处理,目标类型是shape[1,28,28],1表示灰度图,数据类型为float32; 通过yield关键字返回一个batch的数据;在最后一个index_list中,如果imgs_list长度不满足一个batch,这时imgs_list长度不为零,会直接跳出for循环,被后面的len(imgs_list)拦截。
实际任务原始的数据可能存在数据很“脏”的情况,这里的“脏”多指数据标注不准确,或者是数据杂乱,格式不统一等等。
因此,在完成数据处理函数时,我们需要执行数据校验和清理的操作。
数据校验一般有两种方式:
如下代码所示,如果数据集中的图片数量和标签数量不等,说明数据逻辑存在问题,可使用assert语句校验图像数量和标签数据是否一致。
1 imgs_length = len(imgs) 2 3 assert len(imgs) == len(labels), 4 "length of train_imgs({}) should be the same as train_labels({})".format(len(imgs), len(label))
人工校验分两步,首先打印数据输出结果,观察是否是设置的格式。再从训练的结果验证数据处理和读取的有效性。
实现数据处理和加载函数后,我们可以调用它读取一次数据,观察数据的shape和类型是否与函数中设置的一致。
1 # 声明数据读取函数,从训练集中读取数据 2 train_loader = load_data(‘train‘) 3 # 以迭代的形式读取数据 4 for batch_id, data in enumerate(train_loader()): 5 image_data, label_data = data 6 if batch_id == 0: 7 # 打印数据shape和类型 8 print(image_data.shape, label_data.shape, type(image_data), type(label_data)) 9 break
loading mnist dataset from ./work/mnist.json.gz ...... mnist dataset load done 训练数据集数量: 50000 (100, 1, 28, 28) (100, 1) <class ‘numpy.ndarray‘> <class ‘numpy.ndarray‘>
数据处理部分后的代码多数保持不变,仅在读取数据时候调用新编写的load_data函数。由于数据格式的转换工作在load_data函数中做了一部分,所以向模型输入数据的代码变得更加简洁。下面我们使用自己实现的数据加载函数重新训练我们的神经网络。
1 #数据处理部分之后的代码,数据读取的部分调用Load_data函数 2 # 定义网络结构,同上一节所使用的网络结构 3 class MNIST(fluid.dygraph.Layer): 4 def __init__(self, name_scope): 5 super(MNIST, self).__init__(name_scope) 6 name_scope = self.full_name() 7 self.fc = FC(name_scope, size=1, act=None) 8 9 def forward(self, inputs): 10 outputs = self.fc(inputs) 11 return outputs 12 13 # 训练配置,并启动训练过程 14 with fluid.dygraph.guard(): 15 model = MNIST("mnist") 16 model.train() 17 #调用加载数据的函数 18 train_loader = load_data(‘train‘) 19 optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.001) 20 EPOCH_NUM = 10 21 for epoch_id in range(EPOCH_NUM): 22 for batch_id, data in enumerate(train_loader()): 23 #准备数据,变得更加简洁 24 image_data, label_data = data 25 image = fluid.dygraph.to_variable(image_data) 26 label = fluid.dygraph.to_variable(label_data) 27 28 #前向计算的过程 29 predict = model(image) 30 31 #计算损失,取一个批次样本损失的平均值 32 loss = fluid.layers.square_error_cost(predict, label) 33 avg_loss = fluid.layers.mean(loss) 34 35 #每训练了100批次的数据,打印下当前Loss的情况 36 if batch_id % 100 == 0: 37 print("epoch: {}, batch: {}, loss is: {}".format(epoch_id, batch_id, avg_loss.numpy())) 38 39 #后向传播,更新参数的过程 40 avg_loss.backward() 41 optimizer.minimize(avg_loss) 42 model.clear_gradients() 43 44 #保存模型参数 45 fluid.save_dygraph(model.state_dict(), ‘mnist‘)
loading mnist dataset from ./work/mnist.json.gz ...... mnist dataset load done 训练数据集数量: 50000 epoch: 0, batch: 0, loss is: [24.632648] epoch: 0, batch: 100, loss is: [4.4261494] epoch: 0, batch: 200, loss is: [5.5177183] epoch: 0, batch: 300, loss is: [3.5427954] epoch: 0, batch: 400, loss is: [2.7455132] epoch: 1, batch: 0, loss is: [3.4030478] epoch: 1, batch: 100, loss is: [3.3895369] epoch: 1, batch: 200, loss is: [4.0297785] epoch: 1, batch: 300, loss is: [3.658723] epoch: 1, batch: 400, loss is: [3.7493572] epoch: 2, batch: 0, loss is: [3.4815173] epoch: 2, batch: 100, loss is: [3.566256] epoch: 2, batch: 200, loss is: [4.150691] epoch: 2, batch: 300, loss is: [3.3143735] epoch: 2, batch: 400, loss is: [2.8981738] epoch: 3, batch: 0, loss is: [2.9376304] epoch: 3, batch: 100, loss is: [3.322153] epoch: 3, batch: 200, loss is: [4.5626388] epoch: 3, batch: 300, loss is: [3.1342642] epoch: 3, batch: 400, loss is: [3.2983096] epoch: 4, batch: 0, loss is: [4.223956] epoch: 4, batch: 100, loss is: [2.982598] epoch: 4, batch: 200, loss is: [2.719622] epoch: 4, batch: 300, loss is: [3.712464] epoch: 4, batch: 400, loss is: [4.1207376] epoch: 5, batch: 0, loss is: [2.5053217] epoch: 5, batch: 100, loss is: [2.8577585] epoch: 5, batch: 200, loss is: [2.9564447] epoch: 5, batch: 300, loss is: [3.4296014] epoch: 5, batch: 400, loss is: [4.3093677] epoch: 6, batch: 0, loss is: [4.5576763] epoch: 6, batch: 100, loss is: [3.20943] epoch: 6, batch: 200, loss is: [3.327529] epoch: 6, batch: 300, loss is: [2.5192072] epoch: 6, batch: 400, loss is: [3.4901175] epoch: 7, batch: 0, loss is: [3.998215] epoch: 7, batch: 100, loss is: [4.351076] epoch: 7, batch: 200, loss is: [3.8231916] epoch: 7, batch: 300, loss is: [2.151733] epoch: 7, batch: 400, loss is: [2.995807] epoch: 8, batch: 0, loss is: [3.6070685] epoch: 8, batch: 100, loss is: [4.0988545] epoch: 8, batch: 200, loss is: [3.0984952] epoch: 8, batch: 300, loss is: [3.0793695] epoch: 8, batch: 400, loss is: [2.7344913] epoch: 9, batch: 0, loss is: [3.7788324] epoch: 9, batch: 100, loss is: [3.706921] epoch: 9, batch: 200, loss is: [2.7320113] epoch: 9, batch: 300, loss is: [3.2809222] epoch: 9, batch: 400, loss is: [3.8385432]
batch size=100,数据总量为50000,所以有500个batch(0,100,200,300,400);epoch num=10,所以有10次循环(0,1,2,3,4,5,6,7,8,9)。
最后,将上述几部分操作合并到load_data函数,方便后续调用。下面代码为完整的数据读取函数,可以通过数据加载函数load_data的输入参数mode为‘train‘, ‘valid‘, ‘eval‘选择返回的数据是训练集,验证集,测试集。
1 #数据处理部分的展开代码 2 # 定义数据集读取器 3 def load_data(mode=‘train‘): 4 5 # 数据文件 6 datafile = ‘./work/mnist.json.gz‘ 7 print(‘loading mnist dataset from {} ......‘.format(datafile)) 8 data = json.load(gzip.open(datafile)) 9 # 读取到的数据可以直接区分训练集,验证集,测试集 10 train_set, val_set, eval_set = data 11 12 # 数据集相关参数,图片高度IMG_ROWS, 图片宽度IMG_COLS 13 IMG_ROWS = 28 14 IMG_COLS = 28 15 # 获得数据 16 if mode == ‘train‘: 17 imgs = train_set[0] 18 labels = train_set[1] 19 elif mode == ‘valid‘: 20 imgs = val_set[0] 21 labels = val_set[1] 22 elif mode == ‘eval‘: 23 imgs = eval_set[0] 24 labels = eval_set[1] 25 else: 26 raise Exception("mode can only be one of [‘train‘, ‘valid‘, ‘eval‘]") 27 28 imgs_length = len(imgs) 29 30 assert len(imgs) == len(labels), 31 "length of train_imgs({}) should be the same as train_labels({})".format( 32 len(imgs), len(labels)) 33 34 index_list = list(range(imgs_length)) 35 36 # 读入数据时用到的batchsize 37 BATCHSIZE = 100 38 39 # 定义数据生成器 40 def data_generator(): 41 if mode == ‘train‘: 42 # 训练模式下,将训练数据打乱 43 random.shuffle(index_list) 44 imgs_list = [] 45 labels_list = [] 46 47 for i in index_list: 48 img = np.reshape(imgs[i], [1, IMG_ROWS, IMG_COLS]).astype(‘float32‘) 49 label = np.reshape(labels[i], [1]).astype(‘float32‘) 50 imgs_list.append(img) 51 labels_list.append(label) 52 if len(imgs_list) == BATCHSIZE: 53 # 产生一个batch的数据并返回 54 yield np.array(imgs_list), np.array(labels_list) 55 # 清空数据读取列表 56 imgs_list = [] 57 labels_list = [] 58 59 # 如果剩余数据的数目小于BATCHSIZE, 60 # 则剩余数据一起构成一个大小为len(imgs_list)的mini-batch 61 if len(imgs_list) > 0: 62 yield np.array(imgs_list), np.array(labels_list) 63 return data_generator
上面提到的数据读取是同步数据读取方式,针对于样本量较大、数据读取较慢的场景,建议采用异步数据读取方式,可以让数据读取和模型训练并行化,加快数据读取速度,牺牲一小部分内存换取数据读取效率的提升。
说明:
使用飞桨实现异步数据读取非常简单,代码如下所示。
1 # 定义数据读取后存放的位置,CPU或者GPU,这里使用CPU 2 #place = fluid.CUDAPlace(0) 时,数据读到GPU上 3 place = fluid.CPUPlace() 4 with fluid.dygraph.guard(place): 5 # 声明数据加载函数,使用训练模式 6 train_loader = load_data(mode=‘train‘) 7 # 定义DataLoader对象用于加载Python生成器产生的数据 8 data_loader = fluid.io.DataLoader.from_generator(capacity=5, return_list=True) 9 # 设置数据生成器 10 data_loader.set_batch_generator(train_loader, places=place) 11 # 迭代的读取数据并打印数据的形状 12 for i, data in enumerate(data_loader): 13 image_data, label_data = data 14 print(i, image_data.shape, label_data.shape) 15 if i>=5: 16 break
上面的capacity=5,表示异步list的最大长度。
loading mnist dataset from ./work/mnist.json.gz ...... 0 [100, 1, 28, 28] [100, 1] 1 [100, 1, 28, 28] [100, 1] 2 [100, 1, 28, 28] [100, 1] 3 [100, 1, 28, 28] [100, 1] 4 [100, 1, 28, 28] [100, 1] 5 [100, 1, 28, 28] [100, 1]
与同步数据读取相比,异步数据读取仅增加了三行代码,如下所示。
1 place = fluid.CPUPlace() 2 data_loader = fluid.io.DataLoader.from_generator(capacity=5, return_list=True) 3 data_loader.set_batch_generator(train_loader, place)
我们展开解读一下:
参数名和默认值如下:
参数含义如下:
异步数据读取并训练的完整案例代码如下:
1 with fluid.dygraph.guard(): 2 model = MNIST("mnist") 3 model.train() 4 #调用加载数据的函数 5 train_loader = load_data(‘train‘) 6 # 创建异步数据读取器 7 place = fluid.CPUPlace() 8 data_loader = fluid.io.DataLoader.from_generator(capacity=5, return_list=True) 9 data_loader.set_batch_generator(train_loader, places=place) 10 11 optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.001) 12 EPOCH_NUM = 3 13 for epoch_id in range(EPOCH_NUM): 14 for batch_id, data in enumerate(data_loader): 15 image_data, label_data = data 16 image = fluid.dygraph.to_variable(image_data) 17 label = fluid.dygraph.to_variable(label_data) 18 19 predict = model(image) 20 21 loss = fluid.layers.square_error_cost(predict, label) 22 avg_loss = fluid.layers.mean(loss) 23 24 if batch_id % 200 == 0: 25 print("epoch: {}, batch: {}, loss is: {}".format(epoch_id, batch_id, avg_loss.numpy())) 26 27 avg_loss.backward() 28 optimizer.minimize(avg_loss) 29 model.clear_gradients() 30 31 fluid.save_dygraph(model.state_dict(), ‘mnist‘)
loading mnist dataset from ./work/mnist.json.gz ...... epoch: 0, batch: 0, loss is: [41.8419] epoch: 0, batch: 200, loss is: [4.8599553] epoch: 0, batch: 400, loss is: [3.949173] epoch: 1, batch: 0, loss is: [3.6606312] epoch: 1, batch: 200, loss is: [3.593772] epoch: 1, batch: 400, loss is: [3.3966932] epoch: 2, batch: 0, loss is: [3.3882492] epoch: 2, batch: 200, loss is: [3.512473] epoch: 2, batch: 400, loss is: [3.8485198]
从异步数据读取的训练结果来看,损失函数下降与同步数据读取训练结果基本一致。
标签:iterable break with append == none lis 数据类型 关键字
原文地址:https://www.cnblogs.com/yuzaihuan/p/12286354.html