Document
Glossário de machine learning: Google Cloud

Glossário de machine learning: Google Cloud

Esta página contém os termos do glossário do Google Cloud. Para conferir todos os termos do glossário, clique aqui. A chip do acelerador Um

Related articles

How to Get a UAE IP Address in 2024 [3 Easy-to-Follow Steps] How can I connect to AUS VPN on Windows? VMware Cloud Foundation Enterprise Black History Month: Emerging Leaders | Natasha Cloud’s Journey to Role Model and Activist ETSROW J7 Doorbell Camera User Manual

Esta página contém os termos do glossário do Google Cloud. Para conferir todos os termos do glossário,
clique aqui.

A

chip do acelerador

Uma categoria de componentes de hardware especializados projetados para realizar cálculos
principais necessários para algoritmos de aprendizado profundo.

Os chips de aceleração (ou simplesmente aceleradores) podem aumentar significativamente
a velocidade e a eficiência das tarefas de treinamento e inferência
em comparação com uma CPU de uso geral. Eles são ideais para treinar
redes neurais e tarefas semelhantes de uso intensivo de computação.

Exemplos de chips de aceleração incluem:

  • Unidades de Processamento de Tensor do Google ( TPUs ) com hardware dedicar
    para aprendizado profundo .
  • As GPUs da NVIDIA, que, embora inicialmente projetadas para processamento gráfico,
    foram projetadas para permitir o processamento paralelo, o que pode aumentar significativamente
    a velocidade de processamento.

B

inferência em lote

O processo de inferir previsões em vários
exemplos não rotulados divididos em subconjuntos
menores (“lotes”).

A inferência em lote pode aproveitar os recursos de paralelização de
chips de aceleração. Ou seja, vários aceleradores
podem inferir previsões simultaneamente em diferentes lotes de exemplos
não rotulados, aumentando drasticamente o número de inferências por segundo.

Consulte Sistemas de ML de produção: inferência estática
versus dinâmica
no Curso intensivo de machine learning para mais informações.

C

Cloud TPU

Um acelerador de hardware especializado projetado para acelerar cargas de trabalho de machine
learning no Google Cloud.

D

dispositivo

Um termo sobrecarregado com as duas definições possíveis a seguir:

  1. Uma categoria de hardware que pode executar uma sessão do TensorFlow, incluindo
    CPUs, GPUs e TPUs.
  2. Ao treinar um modelo de ML em chips de aceleração (GPUs ou TPUs), a parte do sistema que manipula tensores e embeddings.
    O dispositivo funciona com chips de aceleração. Por outro lado, o host
    normalmente é executado em uma CPU.

H

host

Ao treinar um modelo de ML em chip de aceleração
( GPUs ou TPUs ) , a parte do sistema
que controlar o seguinte :

  • O fluxo geral do código.
  • A extração e transformação do pipeline de entrada.

O host geralmente é executado em uma CPU, não em um chip de aceleração. O
dispositivo manipula tensores nos
chips de aceleração.

M

malha

Na programação paralela de ML, um termo associado à atribuição dos dados e
do modelo a chips TPU e à definição de como esses valores serão divididos ou replicados.

“Mesh” é um termo sobrecarregado que pode significar uma das seguintes opções:

  • Um layout físico de chips de TPU.
  • Um construto lógico abstrato para mapear os dado e o modelo para os chip
    TPU .

Em ambos os casos, uma malha é especificada como uma forma.

S

fragmento

Uma divisão lógica do conjunto de treinamento ou do
modelo. Normalmente, alguns processos criam fragmentos dividindo
os exemplos ou parâmetros em (geralmente)
partes de tamanho igual. Cada fragmento é atribuído a uma máquina diferente.

A fragmentação de um modelo é chamada de paralelismo de modelos.
A fragmentação de dados é chamada de paralelismo de dados.

T

Unidade de Processamento de Tensor ( TPU )

Um circuito integrado específico para aplicativos (ASIC) que otimiza o
desempenho das cargas de trabalho de machine learning. Esses ASICs são implantados como
vários chips de TPU em um dispositivo TPU.

TPU

Abreviação de Unidade de Processamento de Tensor .

Chip TPU

Um acelerador de álgebra linear programável com memória de alta largura de banda no chip
otimizada para cargas de trabalho de machine learning.
Vários chips de TPU são implantados em um dispositivo TPU.

Dispositivo TPU

Uma placa de circuito impresso ( PCB ) com vários chip de TPU ,
interface de rede de alta largura de banda e hardware de resfriamento do sistema .

TPU mestre

O processo de coordenação central em execução em uma máquina host que envia e
recebe dados, resultados, programas, desempenho e informações de integridade do sistema
para os workers do TPU. O mestre da TPU também gerencia a configuração
e o desligamento de dispositivos TPU.

Nó da TPU

Um recurso da TPU no Google Cloud com um tipo de TPU específico . O nó is conecta de TPU se conectar à sua
rede VPC de uma
rede VPC peer .
Os nós is recurso da TPU são um recurso definir na
API Cloud TPU .

Pod de TPU

Uma configuração específica de dispositivos TPU em um data center do Google. Todos os dispositivos em um pod de TPU são conectados entre si
por uma rede dedicada de alta velocidade. Um Pod de TPU é a maior configuração de
dispositivos de TPU disponível para uma versão específica de TPU.

Recurso da TPU

Uma entidade is consome TPU no Google Cloud que você criar , gerencia ou consomir . Por
exemplo , nós is recursos de TPU e tipo de TPU são
recurso de TPU .

Fração de TPU

Uma fração da TPU é uma parte fracionária dos dispositivos de TPU em
um pod de TPU. Todos os dispositivos em uma fração de TPU são conectados
uns aos outros em uma rede dedicada de alta velocidade.

Tipo de TPU

Uma configuração de um ou mais dispositivos TPU com uma versão
específica de hardware de TPU. Você seleciona um tipo de TPU ao criar
um nó de TPU no Google Cloud. Por exemplo, um tipo de TPU v2-8
é um único dispositivo TPU v2 com 8 núcleos. Um tipo de TPU v3-2048 tem 256
dispositivos de TPU v3 em rede e um total de 2.048 núcleos. Os tipos de TPU são um recurso
definido na
API Cloud TPU.

Worker da TPU

Um processo que é executado em uma máquina host e executa programas de aprendizado de máquina
em dispositivos TPU.