PyTorch

Da Wikipédia, a enciclopédia livre

PyTorch

PyTorch é uma biblioteca de aprendizado de máquina baseada na biblioteca Torch,[4][5][6] usada para aplicações como visão computacional e processamento de linguagem natural,[7] originalmente desenvolvida pela Meta AI e agora parte da Linux Foundation.[8][9][10][11] Ela é reconhecida como uma das duas bibliotecas de aprendizado de máquina mais populares, juntamente com a TensorFlow, oferecendo software livre e de código aberto lançado sob a licença BSD modificada. Embora a interface Python seja mais refinada e seja o foco principal do desenvolvimento, o PyTorch também tem uma interface C++.[12]

Factos rápidos
PyTorch
Thumb
PyTorch
Autor
  • Adam Paszke
  • Sam Gross
  • Soumith Chintala
  • Gregory Chanan
Desenvolvedor Meta AI
Plataforma IA-32, x86-64, ARM64
Lançamento setembro de 2016 (8 anos)[1]
Versão estável 2.3.0[2] (24 de abril de 2024; há 12 meses)
Idioma(s) Inglês
Escrito em
Sistema operacional
Gênero(s) Biblioteca para aprendizado de máquina e aprendizagem profunda
Licença BSD-3[3]
Estado do desenvolvimento Ativo
Página oficial pytorch.org
Repositório github.com/pytorch/pytorch
Fechar

Vários softwares de aprendizagem profunda foram desenvolvidos com base no PyTorch, incluindo o Tesla Autopilot,[13] o Pyro da Uber,[14] os transformadores da Hugging Face,[15] o PyTorch Lightning,[16][17] e o Catalyst.[18][19]

O PyTorch oferece dois recursos de alto nível:[20]

Histórico

O Meta (anteriormente conhecido como Facebook) opera tanto o PyTorch quanto o Convolutional Architecture for Fast Feature Embedding (Caffe2), mas os modelos definidos pelas duas estruturas eram incompatíveis entre si. O projeto Open Neural Network Exchange (ONNX) foi criado pela Meta e pela Microsoft em setembro de 2017 para converter modelos entre estruturas. O Caffe2 foi incorporado ao PyTorch no final de março de 2018.[21] Em setembro de 2022, a Meta anunciou que o PyTorch seria governado pela PyTorch Foundation, uma organização independente recém-criada - uma subsidiária da Linux Foundation.[22]

O PyTorch 2.0 foi lançado em 15 de março de 2023.[23]

Tensores PyTorch

O PyTorch define uma classe chamada Tensor (torch.Tensor) para armazenar e operar em matrizes retangulares multidimensionais homogêneas de números. Os Tensores do PyTorch são semelhantes aos Arrays do NumPy, mas também podem ser operados em uma GPU NVIDIA compatível com CUDA. O PyTorch também está desenvolvendo suporte para outras plataformas de GPU, por exemplo, o ROCm da AMD[24] e o Metal Framework da Apple.[25]

O PyTorch oferece suporte a vários subtipos de Tensores.[26]

Observe que o termo "tensor" aqui não tem o mesmo significado que tensor em matemática ou física. O significado da palavra em aprendizado de máquina está apenas superficialmente relacionado ao seu significado original como um certo tipo de objeto em álgebra linear. Os tensores no PyTorch são simplesmente matrizes multidimensionais.

Redes neurais PyTorch

O PyTorch define um módulo chamado nn (torch.nn) para descrever redes neurais e dar suporte ao treinamento. Esse módulo oferece uma coleção abrangente de blocos de construção para redes neurais, incluindo várias camadas e funções de ativação, permitindo a construção de modelos complexos. As redes são criadas herdando o módulo torch.nn e definindo a sequência de operações na função forward().

Exemplo

Resumir
Perspectiva

O programa a seguir mostra a funcionalidade de baixo nível da biblioteca com um exemplo simples:

import torch
dtype = torch.float
device = torch.device("cpu")  # Execute all calculations on the CPU
# device = torch.device("cuda:0")  # Executes all calculations on the GPU

# Create a tensor and fill it with random numbers
a = torch.randn(2, 3, device=device, dtype=dtype)
print(a)
# Output: tensor([[-1.1884,  0.8498, -1.7129],
#                  [-0.8816,  0.1944,  0.5847]])

b = torch.randn(2, 3, device=device, dtype=dtype)
print(b)
# Output: tensor([[ 0.7178, -0.8453, -1.3403],
#                  [ 1.3262,  1.1512, -1.7070]])

print(a * b)
# Output: tensor([[-0.8530, -0.7183,  2.58],
#                  [-1.1692,  0.2238, -0.9981]])

print(a.sum()) 
# Output: tensor(-2.1540)

print(a[1,2]) # Output of the element in the third column of the second row (zero based)
# Output: tensor(0.5847)

print(a.max())
# Output: tensor(0.8498)

O bloco de código a seguir mostra um exemplo da funcionalidade de nível superior fornecida pelo módulo nn. Uma rede neural com camadas lineares é definida no exemplo.

import torch
from torch import nn # Import the nn sub-module from PyTorch

class NeuralNetwork(nn.Module):  # Neural networks are defined as classes
    def __init__(self):  # Layers and variables are defined in the __init__ method
        super().__init__()  # Must be in every network.
        self.flatten = nn.Flatten()   # Construct a flattening layer.
        self.linear_relu_stack = nn.Sequential(  # Construct a stack of layers.
            nn.Linear(28*28, 512),  # Linear Layers have an input and output shape
            nn.ReLU(),  # ReLU is one of many activation functions provided by nn
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10), 
        )

    def forward(self, x):  # This function defines the forward pass.
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits

Referências

Ligações externas

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.