本文将带你通过 PyTorch 框架学习如何使用 MNIST 数据集进行手写数字识别。MNIST 数据集包含 60,000 个训练样本和 10,000 个测试样本,每个样本都是一个 28x28 的灰度图像,包含 0 到 9 的数字。

安装 PyTorch

首先,确保你的环境中已经安装了 PyTorch。你可以通过以下命令进行安装:

pip install torch torchvision

加载数据集

PyTorch 提供了 torchvision 数据集模块,可以直接加载 MNIST 数据集:

import torchvision.datasets as datasets
import torchvision.transforms as transforms

train_dataset = datasets.MNIST(root='./data', train=True, transform=transforms.ToTensor(), download=True)
test_dataset = datasets.MNIST(root='./data', train=False, transform=transforms.ToTensor())

数据预处理

为了更好地训练模型,我们需要对数据进行一些预处理。例如,我们可以将像素值归一化到 [0, 1] 范围内:

train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=64, shuffle=False)

构建模型

接下来,我们需要定义一个神经网络模型来识别手写数字。以下是一个简单的卷积神经网络示例:

import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(1, 32, kernel_size=5)
        self.conv2 = nn.Conv2d(32, 64, kernel_size=5)
        self.fc1 = nn.Linear(1024, 128)
        self.fc2 = nn.Linear(128, 10)

    def forward(self, x):
        x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))
        x = F.max_pool2d(F.relu(self.conv2(x)), 2)
        x = x.view(-1, 1024)
        x = F.relu(self.fc1(x))
        x = self.fc2(x)
        return F.log_softmax(x, dim=1)

net = Net()

训练模型

现在我们已经有了模型和数据集,接下来就是训练模型了。以下是训练代码:

import torch.optim as optim

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.01, momentum=0.9)

for epoch in range(2):  # loop over the dataset multiple times
    running_loss = 0.0
    for i, data in enumerate(train_loader, 0):
        inputs, labels = data
        optimizer.zero_grad()
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
        running_loss += loss.item()
        if i % 2000 == 1999:    # print every 2000 mini-batches
            print(f'[{epoch + 1}, {i + 1:5d}] loss: {running_loss / 2000:.3f}')
            running_loss = 0.0
print('Finished Training')

测试模型

最后,我们来测试一下训练好的模型:

correct = 0
total = 0
with torch.no_grad():
    for data in test_loader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print(f'Accuracy of the network on the 10000 test images: {100 * correct // total}%')

扩展阅读

想要更深入地了解 PyTorch 和 MNIST 数据集?可以阅读以下文章:


请注意,以上内容中已包含图片插入示例,但具体图片内容需要根据实际情况进行替换。