Família de máquinas otimizadas pelo acelerador

Este documento descreve a família de máquinas otimizada para aceleradores, que lhe oferece instâncias de máquinas virtuais (VMs) com GPUs NVIDIA pré-associadas. Estas instâncias foram concebidas especificamente para inteligência artificial (IA), aprendizagem automática (AA), computação de elevado desempenho (HPC) e aplicações com utilização intensiva de gráficos.

A família de máquinas otimizada para aceleradores está disponível nas seguintes séries de máquinas: A4X, A4, A3, A2, G4 e G2. Cada tipo de máquina numa série tem um modelo específico e um número de GPUs NVIDIA anexadas. Também pode anexar alguns modelos de GPU a tipos de máquinas de uso geral N1.

A secção seguinte apresenta as séries de máquinas recomendadas com base nas suas cargas de trabalho de GPU:

Tipo de carga de trabalho Tipo de máquina recomendado
Modelos de pré-treino A4X, A4, A3 Ultra, A3 Mega, A3 High e A2

Para identificar a melhor opção, consulte as Recomendações para modelos de pré-preparação na documentação do AI Hypercomputer.

Modelos de ajuste A4X, A4, A3 Ultra, A3 Mega, A3 High, A2 e G4 (pré-visualização)

Para identificar a melhor opção, consulte as Recomendações para modelos de ajuste fino na documentação do hipercomputador de IA.

Publicação de inferências A4X, A4, A3 Ultra, A3 Mega, A3 High, A3 Edge, A2 e G4 (pré-visualização)

Para identificar a melhor opção, consulte as Recomendações para publicar inferências na documentação do AI Hypercomputer.

Cargas de trabalho com utilização intensiva de gráficos G4 (pré-visualização), G2 e N1+T4
Informática de elevado desempenho Para cargas de trabalho de computação de alto desempenho, qualquer série de máquinas otimizada para aceleradores funciona bem. A melhor opção depende da quantidade de computação que tem de ser transferida para a GPU.

Para mais informações, consulte as Recomendações para HPC na documentação do hipercomputador de IA.

Opções de preços e consumo

As opções de consumo referem-se às formas de obter e usar recursos de computação. AGoogle Cloud fatura os tipos de máquinas otimizados para aceleradores pelas respetivas GPUs anexadas, vCPU predefinidas, memória e SSD local incluído (se aplicável). Os descontos para instâncias otimizadas para aceleradores variam consoante a opção de consumo que usa. Para mais informações sobre os preços das instâncias otimizadas para aceleradores, consulte a secção Família de tipos de máquinas otimizadas para aceleradores na página de preços das instâncias de VM.

Os descontos para instâncias otimizadas para aceleradores variam consoante a opção de consumo que escolher:

  • Consoante a procura: pode receber descontos de fidelidade (CUDs) para alguns recursos comprando compromissos baseados em recursos. No entanto, as GPUs e os discos SSD locais que usa com a opção a pedido não são elegíveis para CUDs. Para receber CUDs para GPUs e discos SSD locais, use uma das opções de reserva.
  • Spot: as VMs do Spot recebem automaticamente descontos através dos preços das VMs do Spot.
  • Início flexível (pré-visualização): as instâncias aprovisionadas através da opção de consumo de início flexível recebem automaticamente descontos através dos preços do Dynamic Workload Scheduler.
  • Reservas: pode receber CUDs para os recursos do tipo de máquina otimizados para aceleradores comprando compromissos baseados em recursos. Os compromissos para GPUs e discos SSD locais requerem reservas associadas para esses recursos.

Disponibilidade da opção de consumo por tipo de máquina

A tabela seguinte resume a disponibilidade de cada opção de consumo por série de máquinas. Para mais informações sobre como escolher uma opção de consumo, consulte o artigo Escolha um modelo de consumo na documentação do hipercomputador de IA.

Tipo de máquina A pedido Spot Flex-start (pré-visualização) Reservas a pedido Reservas futuras (pré-visualização) Reservas futuras no modo de calendário (pré-visualização) Reservas futuras no hipercomputador de IA (pré-visualização)
A4X
A4
A3 Ultra
  • A3 Mega
  • A3 High com 8 GPUs
  • A3 Edge
A3 High com menos de 8 GPUs
A2 Ultra e A2 Standard
G4 (pré-visualização) 1
G2

1Para saber como aceder a esta série de máquinas, contacte a equipa da sua Conta Google.

A série de máquinas A4X

A série de máquinas A4X é executada numa plataforma de exaescala baseada na arquitetura de escala de rack NVIDIA GB200 NVL72 e tem até 140 vCPUs e 884 GB de memória. Esta série de máquinas está otimizada para cargas de trabalho de computação e memória intensivas, de aprendizagem automática (AA) associada à rede e de HPC. A série de máquinas A4X está disponível num único tipo de máquina.

As instâncias de VM criadas com o tipo de máquina A4X oferecem as seguintes funcionalidades:

  • Aceleração de GPU com superchips NVIDIA GB200: as instâncias A4X têm superchips NVIDIA GB200 anexados automaticamente. Estes superchips têm GPUs NVIDIA B200 e oferecem 180 GB de memória por GPU. O A4X tem dois encaixes com CPUs NVIDIA Grace™ com núcleos Arm® Neoverse™ V2. Estas CPUs estão ligadas a quatro GPUs B200 com comunicação rápida entre chips (NVLink-C2C).

  • Plataforma de CPU NVIDIA Grace: as instâncias A4X usam a plataforma de CPU NVIDIA Grace. Para mais detalhes acerca da plataforma, consulte o artigo Plataformas de CPU.

  • Escalabilidade NVLink líder da indústria: NVLink de vários nós que é escalável até 72 GPUs num único domínio. As GPUs NVIDIA B200 oferecem uma largura de banda NVLink da GPU de 1800 GBps, bidirecionalmente por GPU. Com a topologia NVLink de todos para todos entre 4 GPUs num sistema, a largura de banda NVLink agregada é de até 130 TB/s.

  • Rede melhorada com RoCE: para instâncias A4X, o RDMA over Converged Ethernet (RoCE) aumenta o desempenho da rede combinando placas de interface de rede (NICs) NVIDIA ConnectX-7 (CX-7) com a rede alinhada de quatro vias em todo o centro de dados da Google. Ao tirar partido do RDMA over Converged Ethernet (RoCE), as instâncias A4X alcançam um débito muito mais elevado entre instâncias num cluster quando comparadas com as instâncias A4.

    As NICs CX-7, isoladas fisicamente numa topologia de rede alinhada em quatro direções, permitem que as instâncias A4X sejam expandidas em grupos de 72 GPUs até milhares de GPUs num único cluster sem bloqueios.

  • Velocidades de rede aumentadas: oferece velocidades de rede até 4 vezes superiores em comparação com instâncias criadas através dos tipos de máquinas A3.

  • Otimizações de virtualização para transferências e recuperação de dados: a topologia Peripheral Component Interconnect Express (PCIe) das instâncias A4X fornece informações de localidade mais precisas que as cargas de trabalho podem usar para otimizar as transferências de dados.

    As GPUs também expõem a reposição ao nível da função (FLR) para uma recuperação elegante de falhas e o suporte de operações atómicas para melhorias de concorrência em determinados cenários.

  • Suporte de SSD local e Hyperdisk: são adicionados automaticamente 12 000 GiB de SSD local às instâncias A4X. O SSD local pode ser usado para discos de memória temporária rápidos ou para introduzir dados nas GPUs, ao mesmo tempo que evita gargalos de E/S.

    Para aplicações que requerem um desempenho de armazenamento mais elevado, pode anexar até 512 TiB de Hyperdisk a instâncias A4X.

  • Suporte de agendamento com reconhecimento da topologia e alocação densa: quando aprovisiona instâncias A4X através do Cluster Director, pode pedir blocos de capacidade densamente alocada. As suas máquinas anfitriãs são alocadas fisicamente perto umas das outras, aprovisionadas como blocos de recursos e interligadas com uma estrutura de rede de ML dinâmica para minimizar os saltos de rede e otimizar para a latência mais baixa. Além disso, o Cluster Director fornece informações de topologia ao nível do nó e do cluster que podem ser usadas para o posicionamento de tarefas.

Tipo de máquina A4X

Otimizado com acelerador A4X Os tipos de máquinas usam superchips NVIDIA GB200 Grace Blackwell (nvidia-gb200) e são ideais para a preparação e o fornecimento de modelos de base.

A A4X é uma plataforma de exaescala baseada na NVIDIA GB200 NVL72. Cada máquina tem dois processadores NVIDIA Grace com núcleos Arm Neoverse V2. Estas CPUs estão ligadas a quatro GPUs NVIDIA B200 Blackwell com comunicação rápida chip-to-chip (NVLink-C2C).

Superchips NVIDIA GB200 Grace Blackwell
Tipo de máquina Número de vCPUs1 Memória da instância (GB) SSD local associado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Número de GPUs Memória GPU3
(GB HBM3e)
a4x-highgpu-4g 140 884 12 000 6 2000 4 720

1Uma vCPU é implementada como um único hiperthread de hardware numa das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número indicado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre a largura de banda da rede, consulte o artigo Largura de banda da rede.
3A memória da GPU é a memória num dispositivo GPU que pode ser usada para o armazenamento temporário de dados. É separada da memória da instância e foi concebida especificamente para processar as exigências de largura de banda mais elevadas das suas cargas de trabalho com utilização intensiva de gráficos.

Limitações do A4X

Tipos de discos suportados para instâncias A4X

As instâncias A4X podem usar os seguintes tipos de armazenamento em blocos:

  • Hyperdisk Balanced (hyperdisk-balanced): este é o único tipo de disco suportado para o disco de arranque
  • Hyperdisk Extreme (hyperdisk-extreme)
  • SSD local: que é adicionado automaticamente às instâncias criadas através de qualquer um dos tipos de máquinas A4X
Número máximo de discos por instância1
Tipos de máquinas Todos os Hyperdisk Hyperdisk Balanced Débito do Hyperdisk Hyperdisk ML Hyperdisk Extreme SSD local anexado
a4x-highgpu-4g 128 128 N/A N/A 8 32

1 A utilização do Hyperdisk é cobrada separadamente dos preços dos tipos de máquinas. Para ver os preços dos discos, consulte os preços do Hyperdisk.

Limites de disco e capacidade

Pode anexar uma combinação de diferentes tipos de Hyperdisk a uma instância, mas a capacidade total máxima do disco (em TiB) em todos os tipos de disco não pode exceder 512 TiB para todos os Hyperdisks.

Para ver detalhes sobre os limites de capacidade, consulte o artigo Limites de tamanho e anexos do Hyperdisk.

A série de máquinas A4

A série de máquinas A4 oferece tipos de máquinas com até 224 vCPUs e 3968 GB de memória. As instâncias A4 oferecem um desempenho até 3 vezes superior ao dos tipos de instâncias de GPU anteriores para a maioria das cargas de trabalho aceleradas por GPU. O formato A4 é recomendado para cargas de trabalho de preparação de ML, especialmente em grande escala, por exemplo, centenas ou milhares de GPUs. A série de máquinas A4 está disponível num único tipo de máquina.

As instâncias de VM criadas com o tipo de máquina A4 oferecem as seguintes funcionalidades:

  • Aceleração de GPU com GPUs NVIDIA B200: As GPUs NVIDIA B200 são anexadas automaticamente a instâncias A4, que oferecem 180 GB de memória de GPU por GPU.

  • Processador escalável Intel Xeon de 5.ª geração (Emerald Rapids): oferece até 4,0 GHz de frequência turbo máxima sustentada de núcleo único. Para mais informações acerca deste processador, consulte o artigo Plataforma da CPU.

  • Escalabilidade NVLink líder da indústria: as GPUs NVIDIA B200 oferecem uma largura de banda NVLink da GPU de 1800 GBps, bidirecionalmente por GPU.

    Com a topologia NVLink de tudo para tudo entre 8 GPUs num sistema, a largura de banda NVLink agregada é de até 14,4 TBps.

  • Rede melhorada com RoCE: o RDMA over Converged Ethernet (RoCE) aumenta o desempenho da rede combinando placas de interface de rede (NICs) NVIDIA ConnectX-7 com a rede alinhada de quatro vias em todo o centro de dados da Google. Ao tirar partido do RDMA over Converged Ethernet (RoCE), as instâncias A4 alcançam um débito muito mais elevado entre instâncias num cluster em comparação com a maioria das instâncias A3, exceto as que são executadas no tipo de máquina A3 Ultra.

  • Velocidades de rede aumentadas: oferece velocidades de rede até 4 vezes superiores em comparação com as instâncias A2 de geração anterior.

    Para mais informações sobre redes, consulte o artigo Larguras de banda da rede e GPUs.

  • Otimizações de virtualização para transferências e recuperação de dados: a topologia Peripheral Component Interconnect Express (PCIe) das instâncias A4 fornece informações de localidade mais precisas que as cargas de trabalho podem usar para otimizar as transferências de dados.

    As GPUs também expõem a reposição ao nível da função (FLR) para uma recuperação elegante de falhas e compatibilidade com operações atómicas para melhorias de concorrência em determinados cenários.

  • Suporte de SSD local e Hyperdisk: são adicionados automaticamente 12 000 GiB de SSD local às instâncias A4. O SSD local pode ser usado para discos de memória temporária rápidos ou para introduzir dados nas GPUs, evitando gargalos de I/O.

    Para aplicações que requerem um desempenho de armazenamento mais elevado, também pode anexar até 512 TiB de Hyperdisk a instâncias A4.

  • Suporte de agendamento com reconhecimento da topologia e alocação densa: quando aprovisiona instâncias A4 que usam as funcionalidades e os serviços disponíveis no Cluster Director, pode pedir blocos de capacidade densamente alocada. As suas máquinas anfitriãs são atribuídas fisicamente próximas umas das outras, aprovisionadas como blocos de recursos e interligadas com uma estrutura de rede de ML dinâmica para minimizar os saltos de rede e otimizar para a latência mais baixa. Além disso, pode obter informações de topologia ao nível do nó e do cluster que podem ser usadas para o posicionamento de tarefas.

Tipo de máquina A4

Os tipos de máquinas A4 otimizados para aceleradores têm GPUs NVIDIA B200 Blackwell (nvidia-b200) anexadas e são ideais para a preparação e a publicação de modelos de base.

GPUs NVIDIA B200 Blackwell anexadas
Tipo de máquina Número de vCPUs1 Memória da instância (GB) SSD local associado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Número de GPUs Memória GPU3
(GB HBM3e)
a4-highgpu-8g 224 3968 12 000 10 3600 8 1440

1Uma vCPU é implementada como um único hiperthread de hardware numa das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número indicado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações acerca da largura de banda da rede, consulte o artigo Largura de banda da rede.
3A memória da GPU é a memória num dispositivo GPU que pode ser usada para o armazenamento temporário de dados. É separada da memória da instância e foi concebida especificamente para processar as exigências de largura de banda mais elevadas das suas cargas de trabalho com utilização intensiva de gráficos.

Limitações do A4

Tipos de discos suportados para instâncias A4

As instâncias A4 podem usar os seguintes tipos de armazenamento em blocos:

  • Hyperdisk Balanced (hyperdisk-balanced): este é o único tipo de disco suportado para o disco de arranque
  • Hyperdisk Extreme (hyperdisk-extreme)
  • SSD local: que é adicionado automaticamente às instâncias criadas através de qualquer um dos tipos de máquinas A4
Número máximo de discos por instância1
Tipos de máquinas Todos os Hyperdisk Hyperdisk Balanced Débito do Hyperdisk Hyperdisk ML Hyperdisk Extreme SSD local anexado
a4-highgpu-8g 128 128 N/A N/A 8 32

1 A utilização do Hyperdisk é cobrada separadamente dos preços dos tipos de máquinas. Para ver os preços dos discos, consulte os preços do Hyperdisk.

Limites de disco e capacidade

Pode anexar uma combinação de diferentes tipos de Hyperdisk a uma instância, mas a capacidade total máxima do disco (em TiB) em todos os tipos de disco não pode exceder 512 TiB para todos os Hyperdisks.

Para ver detalhes sobre os limites de capacidade, consulte o artigo Limites de tamanho e anexos do Hyperdisk.

A série de máquinas A3

A série de máquinas A3 tem até 224 vCPUs e 2944 GB de memória. Esta série de máquinas está otimizada para cargas de trabalho de HPC, bem como para computação e memória intensivas, e preparação de ML associada à rede. A série de máquinas A3 está disponível nos tipos de máquinas A3 Ultra, A3 Mega, A3 High e A3 Edge.

As instâncias de VM criadas com os tipos de máquinas A3 oferecem as seguintes funcionalidades:

Funcionalidade A3 Ultra A3 Mega, High e Edge
Aceleração da GPU

GPUs NVIDIA H200 SXM anexadas, que oferecem 141 GB de memória da GPU por GPU e fornecem uma memória maior e mais rápida para suportar modelos de linguagem grandes e cargas de trabalho de HPC.

GPUs NVIDIA H100 SXM anexadas, que oferecem 80 GB de memória GPU por GPU e são ideais para grandes modelos de linguagem baseados em transformadores, bases de dados e HPC.

Processadores escaláveis Intel Xeon

Processador Intel Xeon Scalable de 5.ª geração (Emerald Rapids) e oferece uma frequência turbo máxima sustentada de núcleo único de até 4,0 GHz. Para mais informações sobre este processador, consulte o artigo Plataforma da CPU.

Processador Intel Xeon Scalable de 4.ª geração (Sapphire Rapids) e oferece uma frequência turbo máxima sustentada de núcleo único de até 3,3 GHz. Para mais informações sobre este processador, consulte o artigo Plataforma da CPU.

Escalabilidade NVLink líder do setor

As GPUs NVIDIA H200 oferecem uma largura de banda NVLink da GPU de 900 GB/s, unidirecionalmente.

Com a topologia NVLink all-to-all entre 8 GPUs num sistema, a largura de banda NVLink agregada é de até 7,2 TB/s.

As GPUs NVIDIA H100 oferecem uma largura de banda NVLink da GPU de 450 GB/s, unidirecionalmente.

Com a topologia NVLink all-to-all entre 8 GPUs num sistema, a largura de banda NVLink agregada é de até 7,2 TB/s.

Redes melhoradas Para este tipo de máquina, o RDMA over Converged Ethernet (RoCE) aumenta o desempenho da rede através da combinação de placas de interface de rede (NICs) NVIDIA ConnectX-7 com a nossa rede alinhada de quatro vias ao nível do centro de dados. Ao tirar partido do RDMA over Converged Ethernet (RoCE), o tipo de máquina a3-ultragpu-8g alcança um débito muito mais elevado entre instâncias num cluster em comparação com outros tipos de máquinas A3.
  • Para os tipos de máquinas A3 Mega, o GPUDirect-TCPXO melhora ainda mais o GPUDirect-TCPX ao descarregar o protocolo TCP. Ao tirar partido do GPUDirect-TCPXO, o tipo de máquina a3-megagpu-8gduplica a largura de banda da rede em comparação com os tipos de máquinas A3 High e A3 Edge.
  • Para os tipos de máquinas A3 Edge e A3 High, o GPUDirect-TCPX aumenta o desempenho da rede permitindo que as cargas úteis dos pacotes de dados sejam transferidas diretamente da memória da GPU para a interface de rede. Ao tirar partido do GPUDirect-TCPX, estes tipos de máquinas alcançam um débito muito superior entre instâncias num cluster em comparação com os tipos de máquinas otimizados para aceleradores A2 ou G2.
Velocidades de rede melhoradas

Oferece velocidades de rede até 4 vezes superiores quando comparado com a série de máquinas A2 da geração anterior.

Para mais informações sobre redes, consulte o artigo Larguras de banda da rede e GPUs.

Oferece velocidades de rede até 2,5 vezes superiores em comparação com a série de máquinas A2 da geração anterior.

Para mais informações sobre redes, consulte o artigo Larguras de banda da rede e GPUs.

Otimizações de virtualização

A topologia Peripheral Component Interconnect Express (PCIe) das instâncias A3 fornece informações de localidade mais precisas que as cargas de trabalho podem usar para otimizar as transferências de dados.

As GPUs também expõem a reposição ao nível da função (FLR) para uma recuperação elegante de falhas e suporte de operações atómicas para melhorias de concorrência em determinados cenários.

Suporte de SSD local, disco persistente e Hyperdisk

O SSD local pode ser usado para discos de trabalho rápidos ou para introduzir dados nas GPUs, evitando gargalos de E/S. O SSD local está anexado da seguinte forma:

  • São adicionados automaticamente 12 000 GiB de SSD local às instâncias A3 Ultra.
  • São adicionados automaticamente 6000 GiB de SSD local às instâncias A3 Mega, High e Edge.

Também pode anexar até 512 TiB de disco persistente e Hyperdisk a tipos de máquinas nestas séries para aplicações que requerem um desempenho de armazenamento mais elevado. Para determinados tipos de máquinas, também são suportados até 257 TiB de disco persistente.

Suporte da política de posicionamento compacto

Oferece-lhe mais controlo sobre o posicionamento físico das suas instâncias nos centros de dados.

Isto permite uma latência mais baixa e uma largura de banda mais elevada para instâncias localizadas numa única zona de disponibilidade.

Para mais informações, consulte o artigo Acerca das políticas de posicionamento compactas.

Tipo de máquina A3 Ultra

Os tipos de máquinas A3 Ultra têm GPUs NVIDIA H200 SXM (nvidia-h200-141gb) anexadas e oferecem o desempenho de rede mais elevado na série A3. Os tipos de máquinas A3 Ultra são ideais para a preparação e a publicação de modelos de base.

GPUs NVIDIA H200 anexadas
Tipo de máquina Número de vCPUs1 Memória da instância (GB) SSD local associado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Número de GPUs Memória GPU3
(GB HBM3e)
a3-ultragpu-8g 224 2952 12 000 10 3600 8 1128

1Uma vCPU é implementada como um único hiperthread de hardware numa das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número indicado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre a largura de banda da rede, consulte o artigo Largura de banda da rede.
3A memória da GPU é a memória num dispositivo GPU que pode ser usada para o armazenamento temporário de dados. É separada da memória da instância e foi concebida especificamente para processar as exigências de largura de banda mais elevadas das suas cargas de trabalho com utilização intensiva de gráficos.

Limitações do A3 Ultra

  • Só pode pedir capacidade através das opções de consumo suportadas para um tipo de máquina A3 Ultra.
  • Não recebe descontos por utilização sustentada nem descontos de fidelidade flexíveis para instâncias que usam um tipo de máquina A3 Ultra.
  • Só pode usar um tipo de máquina A3 Ultra em determinadas regiões e zonas.
  • Não pode usar o disco persistente (regional ou zonal) numa instância que use um tipo de máquina A3 Ultra.
  • O tipo de máquina A3 Ultra só está disponível na plataforma de CPU Emerald Rapids.
  • Não pode alterar o tipo de máquina de uma instância existente para um tipo de máquina A3 Ultra. Só pode criar novas instâncias A3-ultra. Depois de criar uma instância com um tipo de máquina A3 Ultra, não pode alterar o tipo de máquina.
  • Os tipos de máquinas A3 Ultra não suportam posse exclusiva.
  • Não pode executar sistemas operativos Windows num tipo de máquina A3 Ultra.

Tipo de máquina A3 Mega

Os tipos de máquinas A3 Mega têm GPUs NVIDIA H100 SXM e são ideais para a preparação de modelos grandes e a inferência em vários anfitriões.
GPUs NVIDIA H100 anexadas
Tipo de máquina Número de vCPUs1 Memória da instância (GB) SSD local associado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Número de GPUs Memória da GPU3
(GB HBM3)
a3-megagpu-8g 208 1872 6000 9 1800 8 640

1Uma vCPU é implementada como um único hiperthread de hardware numa das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número indicado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre a largura de banda da rede, consulte o artigo Largura de banda da rede.
3A memória da GPU é a memória num dispositivo GPU que pode ser usada para o armazenamento temporário de dados. É separada da memória da instância e foi concebida especificamente para processar as exigências de largura de banda mais elevadas das suas cargas de trabalho com utilização intensiva de gráficos.

Limitações do A3 Mega

Tipo de máquina A3 High

Os tipos de máquinas A3 High têm GPUs NVIDIA H100 SXM e são adequados para a inferência de modelos grandes e o ajuste fino de modelos.
GPUs NVIDIA H100 anexadas
Tipo de máquina Número de vCPUs1 Memória da instância (GB) SSD local associado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Número de GPUs Memória da GPU3
(GB HBM3)
a3-highgpu-1g 26 234 750 1 25 1 80
a3-highgpu-2g 52 468 1500 1 50 2 160
a3-highgpu-4g 104 936 3000 1 100 4 320
a3-highgpu-8g 208 1872 6000 5 1000 8 640

1Uma vCPU é implementada como um único hiperthread de hardware numa das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número indicado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre a largura de banda da rede, consulte o artigo Largura de banda da rede.
3A memória da GPU é a memória num dispositivo GPU que pode ser usada para o armazenamento temporário de dados. É separada da memória da instância e foi concebida especificamente para processar as exigências de largura de banda mais elevadas das suas cargas de trabalho com utilização intensiva de gráficos.

Limitações elevadas do A3

Tipo de máquina A3 Edge

Os tipos de máquinas A3 Edge têm GPUs NVIDIA H100 SXM e foram concebidos especificamente para a publicação e estão disponíveis num conjunto limitado de regiões.
GPUs NVIDIA H100 anexadas
Tipo de máquina Número de vCPUs1 Memória da instância (GB) SSD local associado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Número de GPUs Memória da GPU3
(GB HBM3)
a3-edgegpu-8g 208 1872 6000 5
  • 800: para asia-south1 e northamerica-northeast2
  • 400: para todas as outras regiões do A3 Edge
8 640

1Uma vCPU é implementada como um único hiperthread de hardware numa das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número indicado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre a largura de banda da rede, consulte o artigo Largura de banda da rede.
3A memória da GPU é a memória num dispositivo GPU que pode ser usada para o armazenamento temporário de dados. É separada da memória da instância e foi concebida especificamente para processar as exigências de largura de banda mais elevadas das suas cargas de trabalho com utilização intensiva de gráficos.

Limitações do A3 Edge

Tipos de discos suportados para instâncias A3

A3 Ultra

As instâncias A3 Ultra podem usar os seguintes tipos de armazenamento em blocos:

  • Hyperdisk Balanced (hyperdisk-balanced): este é o único tipo de disco suportado para o disco de arranque
  • Hiperdisco equilibrado de elevada disponibilidade (hyperdisk-balanced-high-availability)
  • Hyperdisk Extreme (hyperdisk-extreme)
  • SSD local: que é adicionado automaticamente às instâncias criadas através de qualquer um dos tipos de máquinas A3
Número máximo de discos por instância1

Tipos de máquinas
Todos os Hyperdisk Hyperdisk Balanced Hiperdisco equilibrado de alta disponibilidade Débito do Hyperdisk Hyperdisk ML Hyperdisk Extreme Discos
SSD local
anexados
a3-ultragpu-8g 128 128 128 N/A N/A 8 32

1 A utilização do Hyperdisk é cobrada separadamente dos preços dos tipos de máquinas. Para os preços dos discos, consulte os preços do Hyperdisk.

A3 Mega

As instâncias A3 Mega podem usar os seguintes tipos de armazenamento em blocos:

  • Disco persistente equilibrado (pd-balanced)
  • Disco persistente SSD (desempenho) (pd-ssd)
  • Hyperdisk Balanced (hyperdisk-balanced)
  • Hiperdisco equilibrado de elevada disponibilidade (hyperdisk-balanced-high-availability)
  • Hyperdisk ML (hyperdisk-ml)
  • Hyperdisk Extreme (hyperdisk-extreme)
  • Débito do Hyperdisk (hyperdisk-throughput)
  • SSD local: que é adicionado automaticamente às instâncias criadas através de qualquer um dos tipos de máquinas A3
Número máximo de discos por instância1

Tipos de máquinas
Todos os Hyperdisk Hyperdisk Balanced Hiperdisco equilibrado de alta disponibilidade Débito do Hyperdisk Hyperdisk ML Hyperdisk Extreme Discos
SSD local
anexados
a3-megagpu-8g 128 32 32 64 64 8 16

1 A utilização do Hyperdisk e do disco persistente é cobrada separadamente dos preços dos tipos de máquinas. Para ver os preços dos discos, consulte o artigo Preços do Persistent Disk e do Hyperdisk.

A3 High

As instâncias A3 High podem usar os seguintes tipos de armazenamento em blocos:

  • Disco persistente equilibrado (pd-balanced)
  • Disco persistente SSD (desempenho) (pd-ssd)
  • Hyperdisk Balanced (hyperdisk-balanced)
  • Hiperdisco equilibrado de elevada disponibilidade (hyperdisk-balanced-high-availability)
  • Hyperdisk ML (hyperdisk-ml)
  • Hyperdisk Extreme (hyperdisk-extreme)
  • Débito do Hyperdisk (hyperdisk-throughput)
  • SSD local: que é adicionado automaticamente às instâncias criadas através de qualquer um dos tipos de máquinas A3
Número máximo de discos por instância1

Tipos de máquinas
Todos os Hyperdisk Hyperdisk Balanced Hiperdisco equilibrado de alta disponibilidade Débito do Hyperdisk Hyperdisk ML Hyperdisk Extreme Discos
SSD local
anexados
a3-highgpu-1g 128 32 32 64 64 N/A 2
a3-highgpu-2g 128 32 32 64 64 N/A 4
a3-highgpu-4g 128 32 32 64 64 8 8
a3-highgpu-8g 128 32 32 64 64 8 16

1 A utilização do Hyperdisk e do disco persistente é cobrada separadamente dos preços dos tipos de máquinas. Para ver os preços dos discos, consulte o artigo Preços do Persistent Disk e do Hyperdisk.

A3 Edge

As instâncias A3 Edge podem usar os seguintes tipos de armazenamento em blocos:

  • Disco persistente equilibrado (pd-balanced)
  • Disco persistente SSD (desempenho) (pd-ssd)
  • Hyperdisk Balanced (hyperdisk-balanced)
  • Hiperdisco equilibrado de elevada disponibilidade (hyperdisk-balanced-high-availability)
  • Hyperdisk ML (hyperdisk-ml)
  • Hyperdisk Extreme (hyperdisk-extreme)
  • Débito do Hyperdisk (hyperdisk-throughput)
  • SSD local: que é adicionado automaticamente às instâncias criadas através de qualquer um dos tipos de máquinas A3
Número máximo de discos por instância1
Tipos de máquinas Todos os Hyperdisk Hyperdisk Balanced Hiperdisco equilibrado de alta disponibilidade Débito do Hyperdisk Hyperdisk ML Hyperdisk Extreme SSD local anexado
a3-edgegpu-8g 128 32 32 64 64 8 16

1 A utilização do Hyperdisk e do disco persistente é cobrada separadamente dos preços dos tipos de máquinas. Para ver os preços dos discos, consulte o artigo Preços do Persistent Disk e do Hyperdisk.

Limites de disco e capacidade

Se o tipo de máquina o suportar, pode anexar uma combinação de volumes de Hyperdisk e disco persistente a uma instância, mas aplicam-se as seguintes restrições:

  • O número combinado de volumes do Hyperdisk e do disco persistente não pode exceder 128 por instância.
  • A capacidade total máxima do disco (em TiB) em todos os tipos de discos não pode exceder:

    • Para tipos de máquinas com menos de 32 vCPUs:

      • 257 TiB para todos os Hyperdisks ou todos os discos persistentes
      • 257 TiB para uma mistura de Hyperdisk e Persistent Disk
    • Para tipos de máquinas com 32 ou mais vCPUs:

      • 512 TiB para todos os Hyperdisks
      • 512 TiB para uma mistura de Hyperdisk e Persistent Disk
      • 257 TiB para todos os discos persistentes

Para ver detalhes sobre os limites de capacidade, consulte os artigos Limites de tamanho e anexos do Hyperdisk e Capacidade máxima do disco persistente.

A série de máquinas A2

A série de máquinas A2 está disponível nos tipos de máquinas A2 Standard e A2 Ultra. Estes tipos de máquinas têm entre 12 e 96 vCPUs e até 1360 GB de memória.

As instâncias de VM criadas através dos tipos de máquinas A2 oferecem as seguintes funcionalidades:

  • Aceleração da GPU: cada instância A2 tem GPUs NVIDIA A100. Estão disponíveis nas opções A100 de 40 GB e A100 de 80 GB.

  • Escala NVLink líder da indústria que oferece uma largura de banda NVLink de GPU para GPU máxima de 600 GBps. Por exemplo, os sistemas com 16 GPUs têm uma largura de banda NVLink agregada de até 9,6 TBps. Estas 16 GPUs podem ser usadas como um único acelerador de alto desempenho com espaço de memória unificado para oferecer até 10 petaFLOPS de capacidade de computação e até 20 petaFLOPS de capacidade de computação de inferência que podem ser usados para cargas de trabalho de inteligência artificial, aprendizagem avançada e aprendizagem automática.

  • Velocidades de computação melhoradas: as GPUs NVIDIA A100 associadas oferecem melhorias até 10 vezes na velocidade de computação em comparação com as GPUs NVIDIA V100 da geração anterior.

    Com a série de máquinas A2, pode obter uma largura de banda de rede de até 100 Gbps.

  • Compatibilidade com SSD local, disco persistente e Hyperdisk: para discos temporários rápidos ou para introduzir dados nas GPUs, ao mesmo tempo que evitam gargalos de E/S, os tipos de máquinas A2 são compatíveis com SSD local da seguinte forma:

    • Para os tipos de máquinas A2 Standard, pode adicionar até 3000 GiB de SSD local quando cria uma instância.
    • Para os tipos de máquinas A2 Ultra, o SSD local é anexado automaticamente quando cria uma instância.

    Para aplicações que requerem um desempenho de armazenamento mais elevado, também pode anexar até 257 TiB de Persistent Disk e 512 TiB de volumes Hyperdisk a instâncias A2.

  • Suporte de políticas de posicionamento compacto: oferece-lhe mais controlo sobre o posicionamento físico das suas instâncias nos centros de dados. Isto permite uma latência mais baixa e uma largura de banda mais elevada para instâncias localizadas numa única zona de disponibilidade. Para mais informações, consulte o artigo Reduza a latência através da utilização de políticas de posicionamento compactas.

Os seguintes tipos de máquinas estão disponíveis para a série de máquinas A2.

Tipos de máquinas A2 Ultra

Estes tipos de máquinas têm um número fixo de GPUs A100 de 80 GB. O SSD local é anexado automaticamente às instâncias criadas através dos tipos de máquinas A2 Ultra.

GPUs NVIDIA A100 de 80 GB anexadas
Tipo de máquina Número de vCPUs1 Memória da instância (GB) SSD local associado (GiB) Largura de banda máxima da rede (Gbps)2 Número de GPUs Memória GPU3
(GB HBM2e)
a2-ultragpu-1g 12 170 375 24 1 80
a2-ultragpu-2g 24 340 750 32 2 160
a2-ultragpu-4g 48 680 1500 50 4 320
a2-ultragpu-8g 96 1360 3000 100 8 640

1Uma vCPU é implementada como um único hiperthread de hardware numa das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número indicado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre a largura de banda da rede, consulte o artigo Largura de banda da rede.
3A memória da GPU é a memória num dispositivo GPU que pode ser usada para o armazenamento temporário de dados. É separada da memória da instância e foi concebida especificamente para processar as exigências de largura de banda mais elevadas das suas cargas de trabalho com utilização intensiva de gráficos.

Limitações do A2 Ultra

  • Só pode pedir capacidade através das opções de consumo suportadas para um tipo de máquina A2 Ultra.
  • Não recebe descontos por utilização sustentada nem descontos por utilização de fidelidade flexível para instâncias que usam um tipo de máquina A2 Ultra.
  • Só pode usar um tipo de máquina A2 Ultra em determinadas regiões e zonas.
  • O tipo de máquina A2 Ultra só está disponível na plataforma Cascade Lake.
  • Se a sua instância usar um tipo de máquina A2 Ultra, não pode alterar o tipo de máquina. Se precisar de usar um tipo de máquina A2 Ultra diferente ou qualquer outro tipo de máquina, tem de criar uma nova instância.
  • Não pode alterar nenhum outro tipo de máquina para um tipo de máquina A2 Ultra. Se precisar de uma instância que use um tipo de máquina A2 Ultra, tem de criar uma nova instância.
  • Não pode fazer uma formatação rápida dos SSDs locais anexados em instâncias do Windows que usam tipos de máquinas A2 Ultra. Para formatar estes SSDs locais, tem de fazer uma formatação completa através do utilitário diskpart e especificar format fs=ntfs label=tmpfs.

Tipos de máquinas padrão A2

Estes tipos de máquinas têm um número fixo de GPUs A100 de 40 GB. Também pode adicionar discos SSD locais quando cria uma instância A2 Standard. Para saber o número de discos que pode anexar, consulte o artigo Tipos de máquinas que exigem que escolha um número de discos SSD locais.

GPUs NVIDIA A100 de 40 GB anexadas
Tipo de máquina Número de vCPUs1 Memória da instância (GB) SSD local suportado Largura de banda máxima da rede (Gbps)2 Número de GPUs Memória da GPU3
(GB HBM2)
a2-highgpu-1g 12 85 Sim 24 1 40
a2-highgpu-2g 24 170 Sim 32 2 80
a2-highgpu-4g 48 340 Sim 50 4 160
a2-highgpu-8g 96 680 Sim 100 8 320
a2-megagpu-16g 96 1360 Sim 100 16 640

1Uma vCPU é implementada como um único hiperthread de hardware numa das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número indicado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre a largura de banda da rede, consulte o artigo Largura de banda da rede.
3A memória da GPU é a memória num dispositivo GPU que pode ser usada para o armazenamento temporário de dados. É separada da memória da instância e foi concebida especificamente para processar as exigências de largura de banda mais elevadas das suas cargas de trabalho com utilização intensiva de gráficos.

Limitações do A2 Standard

  • Só pode pedir capacidade através das opções de consumo suportadas para um tipo de máquina padrão A2.
  • Não recebe descontos por utilização sustentada nem descontos por utilização de fidelidade flexível para instâncias que usam um tipo de máquina padrão A2.
  • Só pode usar um tipo de máquina A2 Standard em determinadas regiões e zonas.
  • O tipo de máquina A2 Standard só está disponível na plataforma Cascade Lake.
  • Se a sua instância usar um tipo de máquina A2 Standard, só pode mudar de um tipo de máquina A2 Standard para outro tipo de máquina A2 Standard. Não pode alterar o tipo de máquina. Para mais informações, consulte o artigo Modifique instâncias otimizadas para aceleradores.
  • Não pode usar o sistema operativo Windows com os a2-megagpu-16gtipos de máquinas A2 Standard. Quando usar sistemas operativos Windows, escolha um tipo de máquina padrão A2 diferente.
  • Não pode fazer uma formatação rápida dos SSDs locais anexados em instâncias do Windows que usam tipos de máquinas padrão A2. Para formatar estes SSDs locais, tem de fazer uma formatação completa através do utilitário diskpart e especificar format fs=ntfs label=tmpfs.
  • Os tipos de máquinas padrão A2 não suportam a ocupação exclusiva.

Tipos de discos suportados para instâncias A2

As instâncias A2 podem usar os seguintes tipos de armazenamento em blocos:

  • Hyperdisk ML (hyperdisk-ml)
  • Disco persistente equilibrado (pd-balanced)
  • Disco persistente SSD (desempenho) (pd-ssd)
  • Disco persistente padrão (pd-standard)
  • SSD local: que é anexado automaticamente a instâncias criadas através dos tipos de máquinas A2 Ultra.

Se o tipo de máquina o suportar, pode anexar uma combinação de volumes de Hyperdisk e disco persistente a uma instância, mas aplicam-se as seguintes restrições:

  • O número combinado de volumes do Hyperdisk e do disco persistente não pode exceder 128 por instância.
  • A capacidade total máxima do disco (em TiB) em todos os tipos de discos não pode exceder:

    • Para tipos de máquinas com menos de 32 vCPUs:

      • 257 TiB para todos os Hyperdisks ou todos os discos persistentes
      • 257 TiB para uma mistura de Hyperdisk e Persistent Disk
    • Para tipos de máquinas com 32 ou mais vCPUs:

      • 512 TiB para todos os Hyperdisks
      • 512 TiB para uma mistura de Hyperdisk e Persistent Disk
      • 257 TiB para todos os discos persistentes

Para ver detalhes sobre os limites de capacidade, consulte os artigos Limites de tamanho e anexos do Hyperdisk e Capacidade máxima do disco persistente.

A série de máquinas G4

A série de máquinas G4 usa a plataforma de CPU AMD EPYC Turin e inclui GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition. Esta série de máquinas oferece melhorias significativas em relação à série de máquinas G2 de geração anterior, com consideravelmente mais memória da GPU, maior largura de banda da memória da GPU e maior largura de banda da rede.

As instâncias G4 têm até 384 vCPUs, 1440 GB de memória e 12 TiB de discos SSD Titanium anexados. As instâncias G4 também oferecem até 400 Gbps de desempenho de rede padrão.

Esta série de máquinas destina-se particularmente a cargas de trabalho como cargas de trabalho de simulação do NVIDIA Omniverse, aplicações com utilização intensiva de gráficos, transcodificação de vídeo e desktops virtuais. A série de máquinas G4 também oferece uma solução de baixo custo para realizar a inferência de anfitrião único e o ajuste de modelos em comparação com os tipos de máquinas da série A.

As instâncias que usam o tipo de máquina G4 oferecem as seguintes funcionalidades:

  • Aceleração de GPU com GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition: As instâncias G4 associam automaticamente GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, que oferecem 96 GB de memória de GPU por GPU.

  • Plataforma de CPU AMD EPYC Turin de 5.ª geração: esta plataforma oferece uma frequência de aumento máximo sustentada de até 4,1 GHz. Para mais informações sobre este processador, consulte o artigo Plataforma da CPU.

  • Desempenho gráfico de próxima geração: as GPUs NVIDIA RTX PRO 6000 oferecem atualizações significativas de desempenho e funcionalidades em relação às GPUs NVIDIA L4 que estão associadas à série de máquinas G2. Estas atualizações são as seguintes:

    • Núcleos Tensor de 5.ª geração: estes núcleos introduzem suporte para precisão FP4 e geração de vários frames DLSS 4. Ao usar estes núcleos tensores de 5.ª geração, as GPUs NVIDIA RTX PRO 6000 oferecem um desempenho melhorado para acelerar tarefas como o desenvolvimento de LLMs locais e a criação de conteúdo, em comparação com as GPUs NVIDIA L4.
    • Núcleos RT de 4.ª geração: estes núcleos oferecem um desempenho de ray tracing até duas vezes superior ao das GPUs NVIDIA L4 de geração anterior, acelerando a renderização para cargas de trabalho de design e fabrico.
    • Número de núcleos: a GPU NVIDIA RTX PRO 6000 inclui 24 064 núcleos CUDA, 752 núcleos tensores de 5.ª geração e 188 núcleos RT de 4.ª geração. Esta atualização representa um aumento substancial em relação às gerações anteriores, como a GPU L4,que tem 7680 núcleos CUDA e 240 núcleos Tensor.
  • GPU de várias instâncias (MIG): esta funcionalidade permite que uma única GPU seja particionada em até quatro instâncias de GPU totalmente isoladas numa única instância de VM. Para mais informações sobre a MIG da NVIDIA, consulte GPU multi-instância da NVIDIA na documentação da NVIDIA.

  • Suporte de Peripheral Component Interconnect Express (PCIe) Gen 5: as instâncias G4 suportam o PCI Express Gen 5, o que melhora a velocidade de transferência de dados da memória da CPU para a GPU em comparação com o PCIe Gen 3 usado pelas instâncias G2.

  • Suporte de SSDs Titanium e Hyperdisk: as instâncias G4 suportam a ligação de até 12 000 GiB de SSDs Titanium. O SSD Titanium oferece discos de memória temporária rápidos ou introduz dados nas GPUs, o que ajuda a evitar gargalos de E/S.

    Para aplicações que requerem um desempenho de armazenamento mais elevado, as instâncias G4 também suportam a associação de até 512 TiB do Hyperdisk.

  • Comunicação GPU ponto a ponto (P2P): as instâncias G4 suportam a comunicação GPU P2P, o que permite a transferência direta de dados entre GPUs na mesma instância. Isto pode melhorar significativamente o desempenho para cargas de trabalho com várias GPUs, reduzindo a latência de transferência de dados e libertando recursos da CPU. Para mais informações, consulte o artigo Comunicação ponto a ponto (P2P) da GPU G4.

Tipos de máquinas G4

Os tipos de máquinas otimizados para aceleradores G4 usam GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition (nvidia-rtx-pro-6000) e são adequados para cargas de trabalho de simulação do NVIDIA Omniverse, aplicações com utilização intensiva de gráficos, transcodificação de vídeo e desktops virtuais. Os tipos de máquinas G4 também oferecem uma solução de baixo custo para realizar a inferência de anfitrião único e o ajuste de modelos em comparação com os tipos de máquinas da série A.

GPUs NVIDIA RTX PRO 6000 anexadas
Tipo de máquina Número de vCPUs1 Memória da instância (GB) SSD Titanium máximo suportado (GiB)2 Contagem de NICs físicas Largura de banda máxima da rede (Gbps)3 Número de GPUs Memória da GPU4
(GB GDDR7)
g4-standard-48 48 180 1500 1 50 1 96
g4-standard-96 96 360 3000 1 100 2 192
g4-standard-192 192 720 6000 1 200 4 384
g4-standard-384 384 1440 12 000 2 400 8 768

1Uma vCPU é implementada como um único hiperthread de hardware numa das plataformas de CPU disponíveis.
2 Pode adicionar discos SSD de titânio quando cria uma instância G4. Para saber o número de discos que pode anexar, consulte o artigo Tipos de máquinas que exigem que escolha um número de discos SSD locais.
3A largura de banda de saída máxima não pode exceder o número indicado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Consulte o artigo Largura de banda da rede.
4A memória da GPU é a memória num dispositivo de GPU que pode ser usada para armazenamento temporário de dados. É separada da memória da instância e foi concebida especificamente para processar as exigências de largura de banda mais elevadas das suas cargas de trabalho com utilização intensiva de gráficos.

Limitações do G4

  • Só pode pedir capacidade através das opções de consumo suportadas para um tipo de máquina G4.
  • Não recebe descontos por utilização sustentada nem descontos por utilização de fidelidade flexível para instâncias que usam um tipo de máquina G4.
  • Só pode usar um tipo de máquina G4 em determinadas regiões e zonas.
  • Não pode usar o disco persistente (regional ou zonal) numa instância que use um tipo de máquina G4.
  • O tipo de máquina G4 só está disponível na plataforma AMD EPYC Turin de 5.ª geração.
  • Só pode criar instâncias a pedido. As reservas, as VMs de início flexível ou as VMs de preço de mercado não são suportadas. Para começar a usar instâncias G4, contacte a equipa da sua Conta Google.
  • Só pode criar instâncias G4 em us-central1-b.
  • Só pode usar os tipos de discos Hyperdisk Balanced e Hyperdisk Extreme numa instância que use um tipo de máquina G4.
  • Não pode aplicar descontos por utilização de fidelidade a instâncias que usam um tipo de máquina G4.
  • Não pode criar instâncias de Confidential VM que usem um tipo de máquina G4.
  • Não pode criar instâncias G4 em nós de inquilino único.
  • Não pode criar instâncias G4 que usem a estação de trabalho virtual (vWS) NVIDIA RTX.

Tipos de discos suportados para instâncias G4

As instâncias G4 podem usar os seguintes tipos de armazenamento em blocos:

  • Hyperdisk Balanced (hyperdisk-balanced)
  • Hyperdisk Extreme (hyperdisk-extreme)
  • SSD Titanium: pode adicionar SSD Titanium a instâncias criadas com os tipos de máquinas G4.

Número máximo de discos por instância1
Tipos de máquinas Todos os Hyperdisk Hyperdisk Balanced Hyperdisk Extreme SSD Titanium
g4-standard-48 32 32 0 4
g4-standard-96 32 32 8 8
g4-standard-192 64 64 8 16
g4-standard-384 128 128 8 32

1 A utilização do Hyperdisk é cobrada separadamente dos preços dos tipos de máquinas. Para ver os preços dos discos, consulte os preços do Hyperdisk.

Pode anexar uma combinação de diferentes tipos de Hyperdisk a uma instância, mas a capacidade total máxima do disco (em TiB) em todos os tipos de disco não pode exceder 512 TiB para todos os Hyperdisks.

Para ver detalhes sobre os limites de capacidade, consulte o artigo Limites de tamanho e anexos do Hyperdisk.

Comunicação ponto a ponto (P2P) G4

As instâncias G4 melhoram o desempenho da carga de trabalho com várias GPUs através da comunicação direta GPU peer-to-peer (P2P). Esta capacidade permite que as GPUs associadas à mesma instância G4 troquem dados diretamente através do barramento PCIe, evitando a necessidade de transferir dados através da memória principal da CPU. Este caminho direto reduz a latência, diminui a utilização da CPU e aumenta a largura de banda efetiva entre as GPUs. A comunicação P2P acelera significativamente as aplicações com várias GPUs, como a preparação de aprendizagem automática (ML) e a computação de alto desempenho (HPC).

Normalmente, esta funcionalidade não requer modificações ao código da sua aplicação. Só tem de configurar a NCCL para usar P2P. Para configurar a NCCL, antes de executar as cargas de trabalho, defina a variável de ambiente NCCL_P2P_LEVEL na instância G4 com base no tipo de máquina:

  • Para instâncias G4 com 2 ou 4 GPUs (g4-standard-96, g4-standard-192): defina NCCL_P2P_LEVEL=PHB
  • Para instâncias G4 com 8 GPUs (g4-standard-384): defina NCCL_P2P_LEVEL=SYS

Defina a variável de ambiente através de uma das seguintes opções:

  • Na linha de comandos, execute o comando de exportação adequado (por exemplo, export NCCL_P2P_LEVEL=SYS) na sessão da shell onde planeia executar a sua aplicação. Para tornar esta definição persistente, adicione este comando ao script de arranque da shell (por exemplo, ~/.bashrc).
  • Adicione a definição adequada (por exemplo, NCCL_P2P_LEVEL=SYS) ao ficheiro de configuração do NCCL localizado em /etc/nccl.conf.

Principais vantagens e desempenho

  • Acelera as cargas de trabalho de várias GPUs em instâncias G4 com duas ou mais GPUs: oferece tempos de execução mais rápidos para aplicações executadas nos tipos de máquinas g4-standard-96, g4-standard-192 e g4-standard-384.
  • Oferece comunicação de elevada largura de banda: permite velocidades de transferência de dados elevadas entre GPUs.
  • Melhora o desempenho da NCCL: oferece melhorias significativas no desempenho das aplicações que usam a NVIDIA Collective Communication Library (NCCL) em comparação com a comunicação que não usa P2P. O hipervisor da Google isola de forma segura esta comunicação P2P nas suas instâncias.

    • Em instâncias com quatro GPUs (g4-standard-192), todas as GPUs estão num único nó NUMA, o que permite a comunicação P2P mais eficiente. Isto pode levar a melhorias no desempenho de até 2,04x para coletivos como Allgather, Allreduce e ReduceScatter.
    • Em oito instâncias de GPU (g4-standard-384), as GPUs são distribuídas por dois nós NUMA. A comunicação P2P é acelerada para o tráfego dentro e entre estes nós, com melhorias de desempenho até 2,19 vezes para os mesmos conjuntos.

A série de máquinas G2

A série de máquinas G2 está disponível em tipos de máquinas padrão com 4 a 96 vCPUs e até 432 GB de memória. Esta série de máquinas está otimizada para cargas de trabalho de inferência e gráficos. A série de máquinas G2 está disponível num único tipo de máquina padrão com várias configurações.

As instâncias criadas com os tipos de máquinas G2 oferecem as seguintes funcionalidades:

  • Aceleração de GPU: cada tipo de máquina G2 tem GPUs NVIDIA L4.

  • Taxas de inferência melhoradas: o tipo de máquina G2 oferece suporte para o tipo de dados FP8 (ponto flutuante de 8 bits), o que acelera as taxas de inferência de ML e reduz os requisitos de memória.

  • Desempenho gráfico de próxima geração: as GPUs NVIDIA L4 oferecem uma melhoria até 3 vezes no desempenho gráfico através da utilização de núcleos RT de terceira geração e da tecnologia NVIDIA DLSS 3 (Deep Learning Super Sampling).

  • Largura de banda da rede de alto desempenho: com os tipos de máquinas G2, pode obter até 100 Gbps de largura de banda da rede.

  • Compatibilidade com SSD local, disco persistente e Hyperdisk: pode adicionar até 3000 GiB de SSD local a instâncias G2. Pode ser usado para discos de memória rápida ou para introduzir dados nas GPUs, evitando gargalos de I/O.

    Também pode anexar volumes do Hyperdisk e do disco persistente a instâncias G2 para aplicações que requerem armazenamento mais persistente. A capacidade de armazenamento máxima depende do número de vCPUs que a instância tem. Para ver detalhes, consulte o artigo Tipos de discos suportados.

  • Suporte de políticas de posicionamento compacto: oferece-lhe mais controlo sobre o posicionamento físico das suas instâncias nos centros de dados. Isto permite uma latência mais baixa e uma largura de banda mais elevada para instâncias localizadas numa única zona de disponibilidade. Para mais informações, consulte o artigo Reduza a latência através da utilização de políticas de posicionamento compactas.

Tipos de máquinas G2

Os tipos de máquinas G2 otimizados para aceleradores têm GPUs NVIDIA L4 anexadas e são ideais para inferência otimizada em função dos custos, cargas de trabalho de computação de alto desempenho e com utilização intensiva de gráficos.

Cada tipo de máquina G2 também tem uma memória predefinida e um intervalo de memória personalizado. O intervalo de memória personalizado define a quantidade de memória que pode atribuir à sua instância para cada tipo de máquina. Também pode adicionar discos SSD locais quando cria uma instância G2. Para saber o número de discos que pode anexar, consulte o artigo Tipos de máquinas que exigem que escolha um número de discos SSD locais.

GPUs NVIDIA L4 anexadas
Tipo de máquina Número de vCPUs1 Memória da instância predefinida (GB) Intervalo de memória da instância personalizado (GB) SSD local máximo suportado (GiB) Largura de banda máxima da rede (Gbps)2 Número de GPUs Memória GPU3 (GB GDDR6)
g2-standard-4 4 16 16 a 32 375 10 1 24
g2-standard-8 8 32 32 a 54 375 16 1 24
g2-standard-12 12 48 48 a 54 375 16 1 24
g2-standard-16 16 64 54 a 64 375 32 1 24
g2-standard-24 24 96 96 a 108 750 32 2 48
g2-standard-32 32 128 96 a 128 375 32 1 24
g2-standard-48 48 192 192 a 216 1500 50 4 96
g2-standard-96 96 384 384 a 432 3000 100 8 192

1Uma vCPU é implementada como um único hiperthread de hardware numa das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número indicado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre a largura de banda da rede, consulte o artigo Largura de banda da rede.
3A memória da GPU é a memória num dispositivo GPU que pode ser usada para o armazenamento temporário de dados. É separada da memória da instância e foi concebida especificamente para processar as exigências de largura de banda mais elevadas das suas cargas de trabalho com utilização intensiva de gráficos.

Limitações do G2

Tipos de discos suportados para instâncias G2

As instâncias G2 podem usar os seguintes tipos de armazenamento em blocos:

  • Disco persistente equilibrado (pd-balanced)
  • Disco persistente SSD (desempenho) (pd-ssd)
  • Hyperdisk ML (hyperdisk-ml)
  • Débito do Hyperdisk (hyperdisk-throughput)
  • SSD local

Se o tipo de máquina o suportar, pode anexar uma combinação de volumes de Hyperdisk e disco persistente a uma instância, mas aplicam-se as seguintes restrições:

  • O número combinado de volumes do Hyperdisk e do disco persistente não pode exceder 128 por instância.
  • A capacidade total máxima do disco (em TiB) em todos os tipos de discos não pode exceder:

    • Para tipos de máquinas com menos de 32 vCPUs:

      • 257 TiB para todos os Hyperdisks ou todos os discos persistentes
      • 257 TiB para uma mistura de Hyperdisk e Persistent Disk
    • Para tipos de máquinas com 32 ou mais vCPUs:

      • 512 TiB para todos os Hyperdisks
      • 512 TiB para uma mistura de Hyperdisk e Persistent Disk
      • 257 TiB para todos os discos persistentes

Para ver detalhes sobre os limites de capacidade, consulte os artigos Limites de tamanho e anexos do Hyperdisk e Capacidade máxima do disco persistente.

O que se segue?