PyTorch 是一个流行的开源机器学习库,广泛应用于深度学习领域。本教程将为你介绍 PyTorch 的基本概念和实践技巧。

安装 PyTorch

在开始之前,确保你已经安装了 PyTorch。你可以通过以下链接查看如何安装 PyTorch:PyTorch 安装指南

基本概念

张量操作

张量是 PyTorch 中的核心数据结构。以下是一些常用的张量操作:

  • 创建张量:torch.tensor()
  • 查看张量形状:.shape
  • 张量索引:tensor[index]
  • 张量切片:tensor[start:end]

自动求导

PyTorch 提供了自动求导功能,可以方便地进行梯度计算。

  • 自动求导:使用 .backward() 方法
  • 梯度更新:optimizer.step()

实践案例

以下是一个简单的神经网络示例:

import torch
import torch.nn as nn
import torch.optim as optim

# 定义模型
class SimpleNN(nn.Module):
    def __init__(self):
        super(SimpleNN, self).__init__()
        self.fc1 = nn.Linear(10, 50)
        self.relu = nn.ReLU()
        self.fc2 = nn.Linear(50, 1)

    def forward(self, x):
        x = self.fc1(x)
        x = self.relu(x)
        x = self.fc2(x)
        return x

# 实例化模型和优化器
model = SimpleNN()
optimizer = optim.SGD(model.parameters(), lr=0.01)

# 训练模型
for epoch in range(100):
    # 假设我们有一些数据
    inputs = torch.randn(10)
    targets = torch.randn(1)

    # 前向传播
    outputs = model(inputs)

    # 计算损失
    loss = nn.functional.mse_loss(outputs, targets)

    # 反向传播和梯度更新
    loss.backward()
    optimizer.step()

    # 打印信息
    if (epoch + 1) % 10 == 0:
        print(f'Epoch {epoch + 1}, Loss: {loss.item()}')

扩展阅读

希望这个教程能帮助你更好地了解 PyTorch。如果你有任何问题,欢迎在 PyTorch 社区论坛 上提问。

PyTorch Logo