Ir para o conteúdo principal
Documentação
Áreas de tecnologia
close
IA e ML
Desenvolvimento de aplicativos
Hospedagem de aplicativos
Computação
Pipelines e análises de dados
Bancos de dados
Distribuído, híbrido e multicloud
IA generativa
Soluções por setor
Rede
Observabilidade e monitoramento
Segurança
Storage
Ferramentas de vários produtos
close
Gerenciamento de recursos e acesso
Gerenciamento de custos e uso
SDK Google Cloud, linguagens, frameworks e ferramentas
Infraestrutura como código
Migração
Sites relacionados
close
Página inicial do Google Cloud
Teste gratuito e Nível gratuito
Centro de arquitetura
Blog
Entrar em contato com a equipe de vendas
Centro para Desenvolvedores do Google Cloud
Centro para Desenvolvedores do Google
Google Cloud Marketplace
Documentação do Google Cloud Marketplace
Google Cloud Skills Boost
Google Cloud Solution Center
Suporte do Google Cloud
Canal de tecnologia do Google Cloud no YouTube
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Fazer login
Vertex AI
Guias
Referência
Exemplos
Suporte
Recursos
Entre em contato
Comece gratuitamente
Documentação
Guias
Referência
Exemplos
Suporte
Recursos
Áreas de tecnologia
Mais
Ferramentas de vários produtos
Mais
Sites relacionados
Mais
Console
Entre em contato
Comece gratuitamente
Descoberta
Visão geral
Introdução à Vertex AI
MLOps na Vertex AI
Interfaces da Vertex AI
Guias para iniciantes da Vertex AI
Treinar um modelo do AutoML
Treinar um modelo personalizado
Receber inferências de um modelo personalizado
Treinar um modelo usando a Vertex AI e o SDK do Python
Introdução
Pré-requisitos
Criar um notebook
Criar conjunto de dados
Criar um script de treinamento
Treinar um modelo
Fazer uma inferência
Frameworks de ML integrados
PyTorch
TensorFlow
Vertex AI para usuários do BigQuery
Glossário
Começar
Configurar um projeto e um ambiente de desenvolvimento
Instalar o SDK da Vertex AI para Python
Escolha um método de treinamento
Teste um tutorial
Visão geral dos tutoriais
Tutoriais do AutoML
Dados de imagem do Hello
Visão geral
Configurar o projeto e o ambiente
Criar um conjunto de dados e importar imagens
Treinar um modelo de classificação de imagens do AutoML
Avaliar e analisar o desempenho do modelo
Implantar um modelo em um endpoint e fazer uma inferência
Limpar o projeto
Dados tabulares do Hello
Visão geral
Configurar o projeto e o ambiente
Criar um conjunto de dados e treinar um modelo de classificação do AutoML
Implantar um modelo e solicitar uma inferência
Limpar o projeto
Tutoriais de treinamento personalizados
Treinar um modelo tabular personalizado
Treinar um modelo de classificação de imagens do TensorFlow Keras
Visão geral
Configurar o projeto e o ambiente
Treinar um modelo de classificação de imagens personalizado
Exibir previsões de um modelo de classificação de imagens personalizado
Limpar o projeto
Ajustar um modelo de classificação de imagens com dados personalizados
Tutoriais de notebooks de treinamento personalizado
Usar IA generativa e LLMs
Sobre a IA generativa
Usar ferramentas de desenvolvimento da Vertex AI
Informações gerais das ferramentas de desenvolvimento
Usar o SDK da Vertex AI
Visão geral
Introdução ao SDK da Vertex AI para Python
SDK da Vertex AI para classes Python
Informações gerais das classes do SDK da Vertex AI
Classes de dados
Classes de treinamento
Classes de modelo
Classes de previsão
Classes de acompanhamento
Usar a Vertex AI em notebooks
Escolher uma solução de notebook
Colab Enterprise
Guia de início rápido:criar um notebook usando o console
Conectar-se a um ambiente de execução
Gerenciar ambientes de execução e modelos de ambiente de execução
Criar um modelo de ambiente de execução
Criar um ambiente de execução
Vertex AI Workbench
Introdução
Tutoriais de notebook
Começar
Guia de início rápido: criar uma instância usando o Console
Programar a execução de um notebook
Configurar uma instância
Criar uma instância
Criar a versão específica de uma instância
Criar uma instância com acesso às credenciais do usuário
Criar uma instância com a Computação confidencial
Adicionar um ambiente conda
Encerramento de inatividade
Criar uma instância usando um contêiner personalizado
Criar uma instância ativada para Dataproc
Criar uma instância com credenciais de terceiros
Gerenciar atributos usando metadados
Usar reservas
Conectar aos dados
Consulte dados em tabelas do BigQuery no JupyterLab
Acessar buckets e arquivos do Cloud Storage no JupyterLab
Explorar e visualizar dados
Analise e visualize dados no BigQuery
Manter
Gerencie seu ambiente Conda
Backup e restauração
Salvar um notebook no GitHub
Usar um snapshot
Usar o Cloud Storage
Encerrar uma instância
Fazer upgrade do ambiente de uma instância
Acessar o JupyterLab usando SSH
Migrar dados para uma nova instância
Alterar o tipo de máquina e configurar GPUs
Provisionar recursos usando o Terraform
Monitoramento
Monitorar o status de integridade
Controle o acesso
Controle de acesso
Gerenciar o acesso a uma instância
Gerenciar o acesso à interface do JupyterLab de uma instância
Usar chaves de criptografia gerenciadas pelo cliente
Usar uma instância em um perímetro de serviço
Resolver problemas do Vertex AI Workbench
Notas da versão do Vertex AI Workbench
Notebooks gerenciados
Introdução aos notebooks gerenciados
Começar
Crie uma instância de notebooks gerenciado usando o Console do Cloud
Programar uma execução de notebooks gerenciados
Configurar uma instância de notebooks gerenciados
Criar uma instância de notebooks gerenciados
Criar uma instância com um contêiner personalizado
Executar uma instância de notebooks gerenciado em um cluster do Dataproc
Usar o Dataproc sem servidor do Dataproc com notebooks gerenciados
Encerramento de inatividade
Versões de notebooks gerenciados
Conectar aos dados
Consulte dados em tabelas do BigQuery no JupyterLab
Acessar buckets e arquivos do Cloud Storage no JupyterLab
Explorar e visualizar dados
Visão geral
Analise e visualize dados no BigQuery
Desenvolver um modelo
Desenvolvimento de modelos em uma instância de notebooks gerenciados
Implantar
Executar arquivos de notebook com o executor
Executar execuções de notebook com parâmetros
Manter
Migrar para uma instância do Vertex AI Workbench
Salvar um notebook no GitHub
Alterar o tipo de máquina e configurar GPUs de uma instância de notebooks gerenciada
Fazer upgrade do ambiente de uma instância de notebooks gerenciada
Migrar os dados para uma nova instância de notebooks gerenciados pelo usuário
Monitoramento
Registro de auditoria
Controle o acesso
Controle de acesso
Gerenciar o acesso a uma instância
Gerenciar o acesso à interface do JupyterLab de uma instância
Usar chaves de criptografia gerenciadas pelo cliente
Configurar uma rede
Usar uma instância de notebooks gerenciada em um perímetro de serviço
Resolver problemas em notebooks gerenciados
Notebooks gerenciados pelo usuário
Introdução a notebooks gerenciados pelo usuário
Começar
Crie uma instância de notebooks gerenciados pelo usuário usando o Console do Cloud
Configurar uma instância de notebooks gerenciados pelo usuário
Criar uma instância de notebooks gerenciados pelo usuário
Criar a versão específica de uma instância
Instalar dependências
Escolher uma imagem de máquina virtual
Criar uma instância com um contêiner personalizado
Explorar dados
Ciência de dados com R no Google Cloud: tutorial de análise de dados exploratórios
Monitoramento
Monitorar o status de integridade
Registro de auditoria
Controle o acesso
Controle de acesso
Gerenciar o acesso a uma instância
Gerenciar o acesso à interface do JupyterLab de uma instância
Chaves de criptografia gerenciadas pelo cliente
Usar uma instância de notebooks gerenciada pelo usuário em um perímetro de serviço
Usar uma máquina virtual protegida com notebooks gerenciados pelo usuário
Tutorial: criar uma instância de notebooks em uma rede VPC
Manter
Migrar para uma instância do Vertex AI Workbench
Salvar um notebook no GitHub
Fazer backup dos seus dados usando um snapshot
Encerrar uma instância de notebooks gerenciados pelo usuário
Alterar o tipo de máquina e configurar GPUs de uma instância de notebooks gerenciada pelo usuário
Fazer upgrade do ambiente de uma instância de notebooks gerenciada pelo usuário
Migrar os dados para uma nova instância de notebooks gerenciados pelo usuário
Registrar uma instância legada com a API Notebooks
Acessar o JupyterLab usando SSH
Resolver problemas em notebooks gerenciados pelo usuário
Suporte do Terraform para a Vertex AI
Desenvolvimento de modelos de IA preditiva
Visão geral
Desenvolvimento de modelos do AutoML
Visão geral do treinamento do AutoML
Dados de imagem
Classificação
Preparar dados
Criar conjunto de dados
Treinar modelo
Avaliar o modelo
Receber previsões
Interpretar resultados
Detecção de objetos
Preparar dados
Criar conjunto de dados
Treinar modelo
Avaliar o modelo
Receber previsões
Interpretar resultados
Codificar dados de imagem usando Base64
Exportar um modelo do AutoML Edge
Dados em tabela
Visão geral
Introdução aos dados tabulares
Fluxos de trabalho tabulares
Visão geral
Engenharia de atributos
End to End AutoML
Visão geral
Treinar um modelo
Receber inferências on-line
Receber inferências em lote
TabNet
Visão geral
Treinar um modelo
Receber inferências on-line
Receber inferências em lote
Amplitude e profundidade
Visão geral
Treinar um modelo
Receber inferências on-line
Receber inferências em lote
Previsão
Visão geral
Treinar um modelo
Receber inferências on-line
Receber inferências em lote
Preço
Contas de serviço
Gerenciar cotas
Fazer classificações e regressões com o AutoML
Visão geral
Guia de início rápido: classificação do AutoML (console do Cloud)
Preparação de dados de treinamento
Criar conjunto de dados
Treinar um modelo
Avaliar o modelo
Ver arquitetura do modelo
Receber inferências on-line
Receber inferências em lote
Exportar modelo
Fazer previsões com o AutoML
Visão geral
Preparação de dados de treinamento
Criar conjunto de dados
Treinar um modelo
Avaliar o modelo
Receber inferências
Previsão hierárquica
Fazer previsões com o ARIMA+
Fazer previsões com o Prophet
Executar a reconciliação de entidade
Atribuições de recursos para classificação e regressão
Atribuições de recursos para previsão
Tipos de dados e transformações para dados tabulares do AutoML
Parâmetros de treinamento para previsão
Divisões de dados tabulares
Práticas recomendadas para criar dados de treinamento tabular
Previsão com insights de séries temporais
Treinar um modelo do AutoML Edge
Como usar o Console
Como usar a API
AutoML Text
Migrar do AutoML Text para o Gemini.
Gemini para usuários de texto do AutoML
Treinamento personalizado
Visão geral do treinamento personalizado
Carregar e preparar dados
Visão geral da preparação de dados
Usar o Cloud Storage como um sistema de arquivos ativado
Ativar um compartilhamento de NFS para treinamento personalizado
Usar conjuntos de dados gerenciados
Treinamento personalizado da Vertex AI
Visão geral do treinamento personalizado na Vertex AI
Preparar aplicativo de treinamento
Entenda o serviço de treinamento personalizado
Preparar código de treinamento
Usar contêineres pré-criados
Criar um aplicativo de treinamento em Python para um contêiner pré-criado
Contêineres pré-criados para treinamento personalizado
Usar contêineres personalizados
Contêineres personalizados para treinamento
Criar um contêiner personalizado
Coloque o código de treinamento em contêineres e faça a execução localmente
Usar contêineres e imagens de VM de aprendizado profundo
Treinamento em um recurso persistente
Visão geral
Criar recurso permanente
Executar jobs de treinamento em um recurso persistente
Receber informações de recursos persistentes
Reinicializar um recurso persistente
Excluir um recurso persistente
Configure o job de treinamento
Escolher um método de treinamento personalizado
Definir as configurações do contêiner para treinamento
Configurar recursos de computação para treinamento
Usar reservas com treinamento
Usar VMs spot com o treinamento
Enviar o job de treinamento
Criar jobs personalizados
Ajuste de hiperparâmetros
Informações gerais do ajuste de hiperparâmetro
Usar o ajuste de hiperparâmetro
Criar pipelines de treinamento
Programar jobs com base na disponibilidade de recursos
Usar o treinamento distribuído
Como treinar com VMs do Cloud TPU
Usar IP privado para treinamento personalizado
Usar a interface do Private Service Connect para treinamento (recomendado)
Realizar pesquisa de arquitetura neural
Visão geral
Configurar o ambiente
Tutoriais para usuários iniciantes
Práticas recomendadas e fluxo de trabalho
Design de tarefas de proxy
Otimizar a velocidade de treinamento do PyTorch
Usar contêineres de treinamento pré-criados e espaços de pesquisa
Monitorar e depurar
Monitorar e depurar o treinamento usando um shell interativo
Desempenho do treinamento de modelo de perfil
Otimizar usando o Vertex AI Vizier
Visão geral do Vertex AI Vizier
Criar estudos da Vertex AI Vizier
Tutoriais de notebooks da Vertex AI Vizier
Receber inferências
Tutorial: criar um pipeline para treinamento contínuo
Criar restrições de política da organização personalizadas
Ray na Vertex AI
Informações gerais do Ray na Vertex AI
Configuração para o Ray na Vertex AI
Criar um cluster do Ray na Vertex AI
Monitorar clusters do Ray na Vertex AI
Dimensionar um cluster do Ray na Vertex AI
Desenvolver um aplicativo Ray na Vertex AI
Executar o Spark no cluster do Ray na Vertex AI
Usar o Ray na Vertex AI com o BigQuery
Implantar um modelo e receber inferências
Excluir um cluster do Ray
Tutoriais de notebooks do Ray na Vertex AI
Desenvolvimento de modelos de IA generativa
Visão geral
Criar e gerenciar conjuntos de dados
Visão geral
Divisões de dados para modelos do AutoML
Criar um conjunto de anotações
Excluir um conjunto de anotações
Adicionar rótulos (console)
Exportar metadados e anotações em um conjunto de dados
Gerenciar versões do conjunto de dados
Usar o Data Catalog para procurar recursos de modelo e conjunto de dados
Receber inferências
Visão geral
Configurar modelos para inferência
Exportar artefatos de modelo para inferência
Contêineres pré-criados para inferência
Requisitos de contêiner personalizado para inferência
Usar um contêiner personalizado para inferência
Usar rotas personalizadas arbitrárias
Usar o ambiente de execução otimizado do TensorFlow
Fornecer inferências com o NVIDIA Triton
Rotinas de inferência personalizadas
Receber inferências on-line
Criar um endpoint
Escolher um tipo de endpoint
Criar um endpoint público
Usar endpoints públicos dedicados (recomendado)
Usar endpoints particulares dedicados com base no Private Service Connect (recomendado)
Usar endpoints de acesso a serviços particulares
Implantar um modelo em um endpoint
Visão geral da implantação de modelos
Recursos de computação para inferência
Implantar um modelo usando o console do Google Cloud
Implantar um modelo usando a CLI gcloud ou a API Vertex AI
Usar uma implantação em massa para substituir um modelo implantado
Cancelar a implantação de um modelo e excluir o endpoint
Usar Cloud TPUs para inferência on-line
Usar reservas com inferência
Usar VMs de início flexível com inferência
Usar VMs spot com inferência
Receber uma inferência on-line
Conferir métricas de inferência on-line
Conferir as métricas do endpoint
Ver métricas do DCGM
Compartilhar recursos entre implantações
Usar a geração de registros de inferência on-line
Receber inferências em lote
Receber previsões em lote de um modelo personalizado
Receber previsões em lote de um modelo autoimplantado do Model Garden
Disponibilizar modelos de IA generativa
Implantar modelos de IA generativa
Disponibilizar modelos abertos do Gemma usando Cloud TPUs com Saxml
Disponibilizar modelos abertos de Llama 3 usando Cloud TPUs de vários hosts com o Saxml
Exibir um modelo DeepSeek-V3 usando a implantação de GPU de vários hosts
Políticas personalizadas da organização
Tutoriais de notebooks de inferência da Vertex AI
Realizar pesquisas de semelhança vetorial
Visão geral do Vector Search
Testar
Começar
Guia de início rápido da Pesquisa de vetores
Antes de começar
Tutoriais de notebook
Sobre a pesquisa híbrida
Criar e gerenciar índice
Estrutura e formato dos dados de entrada
Criar e gerenciar seu índice
Índices otimizados para armazenamento
Parâmetros de configuração de índice
Atualizar e recriar índice
Filtrar correspondências vetoriais
Importar dados de índice do BigQuery
Embeddings com metadados
Implantar e consultar um índice
Private Service Connect (recomendado)
Configurar a Pesquisa vetorial com o Private Service Connect
Consulta
Autenticação do JSON Web Token
Endpoint público
Implantar
Consulta
Acesso privado a serviços
Configurar uma conexão de peering de redes VPC
Implantar
Consulta
Autenticação do JSON Web Token
Monitorar um índice implantado
Usar políticas personalizadas da organização
Receber suporte
Operações de machine learning (MLOps)
Gerenciar recursos
Gerenciamento de recursos na Vertex AI
Vertex AI Feature Store
Sobre o Vertex AI Feature Store
Configurar recursos
Preparar fonte de dados
Criar um grupo de elementos
Criar um recurso
Configurar a veiculação on-line
Tipos de veiculação on-line
Criar uma instância de loja on-line
Criar uma instância de visualização de recursos
Controle o acesso
Controlar o acesso a recursos
Sincronizar loja on-line
Iniciar uma sincronização de dados
Listar operações de sincronização
Atualizar recursos em uma visualização de recursos
Disponibilizar recursos
Veicular atributos na loja on-line
Exibir valores de atributos históricos
Monitoramento
Monitorar recursos
Gerenciar recursos de funcionalidades
Listar grupos de recursos
Listar recursos
Atualizar um grupo de recursos
Atualizar um recursos
Excluir um grupo de recursos
Excluir um recurso
Gerenciar recursos de lojas on-line
Listar lojas on-line
Visualizações de recursos em lista
Atualizar uma loja on-line
Atualizar uma visualização de recurso
Excluir uma loja on-line
Excluir uma visualização de recurso
Metadados do recurso
Atualizar rótulos
Pesquisar recursos
Pesquisar recursos
Pesquisar metadados de recursos no Data Catalog
Gerenciar incorporações
Pesquisar usando embeddings
Tutoriais de notebook
Notebooks de tutoriais do Vertex AI Feature Store
Feature Store da Vertex AI (legado)
Sobre o Vertex AI Feature Store (legado)
Modelo e recursos de dados
Requisitos de dados de origem
Configuração
Práticas recomendadas
Usar o Vertex AI Feature Store (legado)
Gerenciar featurestores
Gerenciar tipos de entidades
Gerenciar e encontrar recursos
Importação em lote
Importação de streaming
Exibição on-line
Buscar dados de treinamento
Valores exportar atributo
Excluir valores de atributo
Monitoramento
Controlar o acesso a recursos
Gerenciar modelos
Introdução ao Vertex AI Model Registry
Controle de versão no Registro de modelos
Importar modelos para o Registro de modelos
Copiar modelos no Registro de modelos
Excluir um modelo
Integração com o BigQuery ML
Usar aliases de modelos
Usar identificadores de modelo
Usar o Data Catalog para procurar recursos de modelo e conjunto de dados
Avaliar modelos
Avaliação de modelos na Vertex AI
Execução da avaliação de modelos na Vertex AI
Avaliação do modelo para imparcialidade
Introdução à avaliação de modelos para imparcialidade
Métricas de viés de dados para a Vertex AI
Métricas de viés do modelo para a Vertex AI
Tutoriais de notebooks de avaliação de modelos
Orquestrar fluxos de trabalho de ML usando pipelines
Introdução
Interfaces
Configurar seu projeto
Construir um canal
Executar um pipeline
Usar modelos de pipeline
Criar, fazer upload e usar um modelo de pipeline
Usar um modelo pré-criado da Galeria de modelos
Configurar o pipeline
Configurar o cache de execução
Configurar a política de falha
Configurar novas tentativas para uma tarefa de pipeline
Especificar tipos de máquina para uma etapa de pipeline
Solicitar recursos de máquina do Google Cloud com os pipelines da Vertex AI
Configurar a interface do Private Service Connect (recomendado)
Configurar secrets com o Secret Manager
Configurar uma execução de pipeline em um recurso permanente
Programar e acionar execuções de pipeline
Programar uma execução de pipeline com a API Scheduler
Acionar uma execução de pipeline com o Pub/Sub
Cancelar ou excluir execuções de pipeline
Cancelar execuções de pipeline
Excluir execuções de pipeline
Executar um pipeline novamente
Monitorar a execução do pipeline
Conferir métricas de pipeline
Ver registros do job de pipeline
Encaminhar registros para um coletor do Cloud Pub/Sub
Configurar notificações por e-mail
Visualizar resultados
Visualizar e analisar resultados de pipeline
Rastrear a linhagem de artefatos de pipeline
HTML de saída e Markdown
Rotulagem de recursos pelo Vertex AI Pipelines
Entender os custos de execução do pipeline
Migre do Kubeflow Pipelines para o Vertex AI Pipelines
Usar restrições personalizadas
Componentes do Google Cloud Pipeline
Início rápido
Introdução aos componentes de pipeline do Google Cloud
Lista de componentes do Google Cloud Pipeline
Usar componentes de pipeline do Google Cloud
Criar os próprios componentes de pipeline
Tutoriais do Vertex AI Pipelines
Notebooks de tutorial
Acompanhar e analisar metadados de ML
Introdução ao Vertex ML Metadata
Modelo e recursos de dados
Configurar o armazenamento de metadados do projeto
Usar o Vertex ML Metadata
Rastrear metadados do Vertex ML
Analisar Vertex ML Metadata
Gerenciar metadados do Vertex ML
Esquemas do sistema
Criar e usar esquemas personalizados
Usar restrições personalizadas com repositórios de metadados
Tutoriais de notebooks do Vertex ML Metadata
Entender o comportamento do modelo
Introdução à Explainable AI
Configurar explicações baseadas em exemplos para treinamento personalizado
Configurar explicações baseadas em recursos para treinamento personalizado
Configurar explicações
Definir as configurações de visualização
Melhorar as explicações
Configurar explicações baseadas em recursos para classificação de imagens do AutoML
Definir as configurações de visualização
Melhorar as explicações
Usar o TensorFlow para explicações
Ver as explicações
Limitações da Explainable AI
Tutoriais de notebooks da Explainable AI
Monitorar a qualidade do modelo
Introdução ao monitoramento de modelos
Monitoramento de modelos v2
Configurar o monitoramento de modelos
Executar jobs de monitoramento
Gerenciar monitores de modelos
Monitoramento de modelos v1
Fornecer esquemas para o monitoramento de modelos
Detectar desvios e deslocamentos de recursos
Monitorar desvios e atribuições de atribuição de recursos
Monitoramento de modelos para previsões em lote
Acompanhar experimentos
Introdução aos experimentos da Vertex AI
Configurar o Vertex AI Experiments
Criar um experimento
Criar e gerenciar execuções de experimentos
Dados de registros
Registrar dados automaticamente em uma execução de experimento
Registrar dados em uma execução do experimento
Registrar modelos em uma execução de experimento
Rastrear execuções e artefatos
Adicionar execução do pipeline ao experimento
Executar o job de treinamento com o acompanhamento de experimentos
Comparar e analisar execuções
Usar o TensorBoard da Vertex AI
Introdução ao TensorBoard da Vertex AI
Configurar o TensorBoard da Vertex AI
Configurar o script de treinamento
Usar o TensorBoard da Vertex AI com treinamento personalizado
Usar o TensorBoard da Vertex AI com o Vertex AI Pipelines
Registrar manualmente dados do TensorBoard
Fazer upload dos registros atuais
Conferir o TensorBoard da Vertex AI
Tutoriais de notebook
Primeiros passos com os experimentos da Vertex AI
Comparar execuções de pipeline
Treinamento de modelo
Comparar modelos
Geração automática de registros
Registro automático de treinamento personalizado
Rastrear parâmetros e métricas para jobs de treinamento personalizado
Excluir experimentos desatualizados do Vertex AI TensorBoard
Treinamento personalizado do Vertex AI TensorBoard com contêineres personalizados
Treinamento personalizado do Vertex AI TensorBoard com contêineres pré-criados
Ajuste de hiperparâmetros do Vertex AI com o painel HParams
Criar perfil de desempenho de treinamento de modelo usando o Cloud Profiler
Criar perfil de desempenho de treinamento de modelo usando o Cloud Profiler no treinamento personalizado com contêiner pré-criado
Integração do TensorBoard da Vertex AI com Vertex AI Pipelines
Administrar
Controle de acesso
Controle de acesso com o IAM
Permissões IAM
Configurar um projeto para uma equipe
Controlar o acesso aos endpoints da Vertex AI
Usar uma conta de serviço personalizada
Usar chaves de criptografia gerenciadas pelo cliente
Transparência no acesso
Monitorar recursos da Vertex AI
Métricas do Cloud Monitoring
Informações sobre registros de auditoria
Rede
Visão geral do acesso à rede
Como acessar a API Vertex AI
Como acessar os serviços da Vertex AI usando o acesso a serviços particulares
Como acessar serviços da Vertex AI por endpoints do PSC
Como acessar os serviços da Vertex AI por interfaces do PSC
Configurar o peering de rede VPC
Configurar a conectividade com outras redes
Configurar uma interface do Private Service Connect
Tutorial: acessar pipelines de treinamento de modo privado no local
Tutorial: acessar um índice de pesquisa de vetor de modo privado no local
Tutorial: acessar a API Generative AI no local
Tutorial: acessar predições em lote de modo privado no local
Tutorial: criar uma instância do Vertex AI Workbench em uma rede VPC
Segurança
VPC Service Controls
Permitir o acesso de endpoints públicos a recursos protegidos fora de um perímetro
Permitir o acesso multicloud a recursos protegidos de fora de um perímetro
Permitir o acesso a recursos protegidos dentro de um perímetro
Recursos de nome
Amostras e tutoriais