基本概念
处理数据样本的代码(数据集代码)可能会变得混乱且难以维护,理想情况下,我们希望数据集代码与模型训练代码解耦,以获得更好的可读性和模块化。PyTorch提供两个数据元:
torch.utils.data.DataLoader
- DataLoader在Dataset周围包装一个可迭代对象,以方便访问数据
torch.utils.data.Dataset
- Dataset存储数据样本和它们对应的label
允许您使用预加载的数据集以及您自己的数据。
PyTorch域库提供了一系列预加载数据集(如FashionMINIST),这些数据集都torch.utils.data.Dataset的子集,还提供了一系列针对特定数据的特定方法的实施。它们可以用于原型和基准测试你的模型。
加载一个数据集
从torchvision中加载Fashion-MNIST数据集。Fashion-MNIST数据集是关于Zalando’s article images的,其中有60000训练样本和10000测试样本。每个样本都是 28 * 28 的灰度图,和其从 10 的类中对应的一个 label。
我们使用如下格式来加载Fashion-MINIST数据集
- root:训练/测试数据存储的路径
- train:决定是训练数据还是测试数据
- download=True:如果在 root 中找不到该数据的话,就从网络中下载
- transform,target_transform:决定特征和 label 的转化
import torch
from torch.utils.data import Dataset
from torchvision import datasets
from torchvision.transforms import ToTensor
import matplotlib.pyplot as plttraining_data = datasets.FashionMNIST(root="data",train=True,download=True,transform=ToTensor()
)test_data = datasets.FashionMNIST(root="data",train=False,download=True,transform=ToTensor()
)
迭代和可视化数据
我们可以像 list
一样手动索引 Datasets
:training_data[index]
。我们使用 matplotlib
来可视化一些训练数据中的样本
labels_map = {
0: "T-Shirt",1: "Trouser",2: "Pullover",3: "Dress",4: "Coat",5: "Sandal",6: "Shirt",7: "Sneaker",8: "Bag",9: "Ankle Boot",
}
figure = plt.figure(figsize=(8, 8))
cols, rows = 3, 3
for i in range(1, cols * rows + 1):sample_idx = torch.randint(len(training_data), size=(1,)).item()img, label = training_data[sample_idx] # 包含数据和 labelfigure.add_subplot(rows, cols, i)plt.title(labels_map[label])plt.axis("off")plt.imshow(img.squeeze(), cmap="gray")
plt.show()
创建自定义数据集
一个自定义的数据集类必须实现三个函数:__ init __ ,__ len , __ getitem__。我们看一下下面的实现,FashionMNIST
图像存储在 img_dir
文件夹重,他们的 labels
存在 CSV 文件 annotations_file
中。
import os
import pandas as pd
from torchvision.io import read_imageclass CustomImageDataset(Dataset):def __init__(self, annotations_file, img_dir, transform=None, target_transform=None):self.img_labels = pd.read_csv(annotations_file)self.img_dir = img_dirself.transform = transformself.target_transform = target_transformdef __len__(self):return len(self.img_labels)def __getitem__(self, idx):img_path = os.path.join(self.img_dir, self.img_labels.iloc[idx, 0])image = read_image(img_path)label = self.img_labels.iloc[idx, 1]if self.transform:image = self.transform(image)if self.target_transform:label = self.target_transform(label)return image, label
__ init __
当实例化 Dataset
对象时,init
函数就运行一次。在这里,我们初始化包含图像和标注文件的目录,以及二者的 transforms
label.csv
结构如下:前面是图像的名字,后面是 label
tshirt1.jpg, 0
tshirt2.jpg, 0
......
ankleboot999.jpg, 9
__ len __
该函数返回我们数据集中样本的个数
__ getitem __
该函数根据给定的索引 idx
,从数据集中加载并返回一个样本。根据指定的索引,能够定位图像在磁盘上的位置,使用 read_image
函数将其转化为一个 tensor
,从 self.img_labels
中检错出 csv data 中对应的 label
,并调用相应的转换函数。然后以 tuple
的形式,返回image 的 tensor 和对应的 label
将数据用于DataLoaders
Dataset
每次检索出数据集中的一个样本(feature + label
)。在训练模型的时候,我们想将样本按照 minibatch
的方式来训练,在每个 epoch
重新洗牌数据,以减少模型过拟合。同时,使用 python
的multiprocessing
来加速数据的检索。
我们可以使用 DataLoader
:是一个可迭代对象,它在一个简单的API中为我们抽象了这些复杂性
from torch.utils.data import DataLoadertrain_dataloader = DataLoader(training_data, batch_size=64, shuffle=True)
test_dataloader = DataLoader(test_data, batch_size=64, shuffle=True)
遍历DataLoader
我们已经将 dataset
载入了 DataLoader
,并且可以按照需求,迭代dataset
。下面例子中的每次迭代都返回一个 batch
的 train_features
和 train_labels
(包含 batch_size=64
的 features
和 labels
)。因为我们指定了shuffle=True
,在我们遍历所有批次后,数据被打乱(epoch
之间数据重新打乱,epoch
内不会重排)
# Display image and label.
train_features, train_labels = next(iter(train_dataloader))
print(f"Feature batch shape: {
train_features.size()}")
print(f"Labels batch shape: {
train_labels.size()}")
img = train_features[0].squeeze()
label = train_labels[0]
plt.imshow(img, cmap="gray")
plt.show()
print(f"Label: {
label}")