Ir para o conteúdo principal
Google Cloud
Documentação Áreas de tecnologia
  • IA e ML
  • Desenvolvimento de aplicativos
  • Hospedagem de aplicativos
  • Computação
  • Pipelines e análises de dados
  • Bancos de dados
  • Distribuído, híbrido e multicloud
  • IA generativa
  • Soluções por setor
  • Rede
  • Observabilidade e monitoramento
  • Segurança
  • Storage
Ferramentas de vários produtos
  • Gerenciamento de recursos e acesso
  • Gerenciamento de custos e uso
  • SDK Google Cloud, linguagens, frameworks e ferramentas
  • Infraestrutura como código
  • Migração
Sites relacionados
  • Página inicial do Google Cloud
  • Teste gratuito e Nível gratuito
  • Centro de arquitetura
  • Blog
  • Entrar em contato com a equipe de vendas
  • Centro para Desenvolvedores do Google Cloud
  • Centro para Desenvolvedores do Google
  • Google Cloud Marketplace
  • Documentação do Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Suporte do Google Cloud
  • Canal de tecnologia do Google Cloud no YouTube
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Fazer login
  • Vertex AI
Guias Referência Exemplos Suporte Recursos
Entre em contato Comece gratuitamente
Google Cloud
  • Documentação
    • Guias
    • Referência
    • Exemplos
    • Suporte
    • Recursos
  • Áreas de tecnologia
    • Mais
  • Ferramentas de vários produtos
    • Mais
  • Sites relacionados
    • Mais
  • Console
  • Entre em contato
  • Comece gratuitamente
  • Descoberta
  • Visão geral
  • Introdução à Vertex AI
  • MLOps na Vertex AI
  • Interfaces da Vertex AI
  • Guias para iniciantes da Vertex AI
    • Treinar um modelo do AutoML
    • Treinar um modelo personalizado
    • Receber inferências de um modelo personalizado
    • Treinar um modelo usando a Vertex AI e o SDK do Python
      • Introdução
      • Pré-requisitos
      • Criar um notebook
      • Criar conjunto de dados
      • Criar um script de treinamento
      • Treinar um modelo
      • Fazer uma inferência
  • Frameworks de ML integrados
    • PyTorch
    • TensorFlow
  • Vertex AI para usuários do BigQuery
  • Glossário
  • Começar
  • Configurar um projeto e um ambiente de desenvolvimento
  • Instalar o SDK da Vertex AI para Python
  • Escolha um método de treinamento
  • Teste um tutorial
    • Visão geral dos tutoriais
    • Tutoriais do AutoML
      • Dados de imagem do Hello
        • Visão geral
        • Configurar o projeto e o ambiente
        • Criar um conjunto de dados e importar imagens
        • Treinar um modelo de classificação de imagens do AutoML
        • Avaliar e analisar o desempenho do modelo
        • Implantar um modelo em um endpoint e fazer uma inferência
        • Limpar o projeto
      • Dados tabulares do Hello
        • Visão geral
        • Configurar o projeto e o ambiente
        • Criar um conjunto de dados e treinar um modelo de classificação do AutoML
        • Implantar um modelo e solicitar uma inferência
        • Limpar o projeto
    • Tutoriais de treinamento personalizados
      • Treinar um modelo tabular personalizado
      • Treinar um modelo de classificação de imagens do TensorFlow Keras
        • Visão geral
        • Configurar o projeto e o ambiente
        • Treinar um modelo de classificação de imagens personalizado
        • Exibir previsões de um modelo de classificação de imagens personalizado
        • Limpar o projeto
      • Ajustar um modelo de classificação de imagens com dados personalizados
    • Tutoriais de notebooks de treinamento personalizado
  • Usar IA generativa e LLMs
  • Sobre a IA generativa
  • Usar ferramentas de desenvolvimento da Vertex AI
  • Informações gerais das ferramentas de desenvolvimento
  • Usar o SDK da Vertex AI
    • Visão geral
    • Introdução ao SDK da Vertex AI para Python
    • SDK da Vertex AI para classes Python
      • Informações gerais das classes do SDK da Vertex AI
      • Classes de dados
      • Classes de treinamento
      • Classes de modelo
      • Classes de previsão
      • Classes de acompanhamento
  • Usar a Vertex AI em notebooks
    • Escolher uma solução de notebook
    • Colab Enterprise
      • Guia de início rápido:criar um notebook usando o console
      • Conectar-se a um ambiente de execução
      • Gerenciar ambientes de execução e modelos de ambiente de execução
        • Criar um modelo de ambiente de execução
        • Criar um ambiente de execução
    • Vertex AI Workbench
      • Introdução
      • Tutoriais de notebook
      • Começar
        • Guia de início rápido: criar uma instância usando o Console
        • Programar a execução de um notebook
      • Configurar uma instância
        • Criar uma instância
        • Criar a versão específica de uma instância
        • Criar uma instância com acesso às credenciais do usuário
        • Criar uma instância com a Computação confidencial
        • Adicionar um ambiente conda
        • Encerramento de inatividade
        • Criar uma instância usando um contêiner personalizado
        • Criar uma instância ativada para Dataproc
        • Criar uma instância com credenciais de terceiros
        • Gerenciar atributos usando metadados
        • Usar reservas
      • Conectar aos dados
        • Consulte dados em tabelas do BigQuery no JupyterLab
        • Acessar buckets e arquivos do Cloud Storage no JupyterLab
      • Explorar e visualizar dados
        • Analise e visualize dados no BigQuery
      • Manter
        • Gerencie seu ambiente Conda
        • Backup e restauração
          • Salvar um notebook no GitHub
          • Usar um snapshot
          • Usar o Cloud Storage
        • Encerrar uma instância
        • Fazer upgrade do ambiente de uma instância
        • Acessar o JupyterLab usando SSH
        • Migrar dados para uma nova instância
        • Alterar o tipo de máquina e configurar GPUs
        • Provisionar recursos usando o Terraform
      • Monitoramento
        • Monitorar o status de integridade
      • Controle o acesso
        • Controle de acesso
        • Gerenciar o acesso a uma instância
        • Gerenciar o acesso à interface do JupyterLab de uma instância
        • Usar chaves de criptografia gerenciadas pelo cliente
        • Usar uma instância em um perímetro de serviço
      • Resolver problemas do Vertex AI Workbench
      • Notas da versão do Vertex AI Workbench
      • Notebooks gerenciados
        • Introdução aos notebooks gerenciados
        • Começar
          • Crie uma instância de notebooks gerenciado usando o Console do Cloud
          • Programar uma execução de notebooks gerenciados
        • Configurar uma instância de notebooks gerenciados
          • Criar uma instância de notebooks gerenciados
          • Criar uma instância com um contêiner personalizado
          • Executar uma instância de notebooks gerenciado em um cluster do Dataproc
          • Usar o Dataproc sem servidor do Dataproc com notebooks gerenciados
          • Encerramento de inatividade
          • Versões de notebooks gerenciados
        • Conectar aos dados
          • Consulte dados em tabelas do BigQuery no JupyterLab
          • Acessar buckets e arquivos do Cloud Storage no JupyterLab
        • Explorar e visualizar dados
          • Visão geral
          • Analise e visualize dados no BigQuery
        • Desenvolver um modelo
          • Desenvolvimento de modelos em uma instância de notebooks gerenciados
        • Implantar
          • Executar arquivos de notebook com o executor
          • Executar execuções de notebook com parâmetros
        • Manter
          • Migrar para uma instância do Vertex AI Workbench
          • Salvar um notebook no GitHub
          • Alterar o tipo de máquina e configurar GPUs de uma instância de notebooks gerenciada
          • Fazer upgrade do ambiente de uma instância de notebooks gerenciada
          • Migrar os dados para uma nova instância de notebooks gerenciados pelo usuário
        • Monitoramento
          • Registro de auditoria
        • Controle o acesso
          • Controle de acesso
          • Gerenciar o acesso a uma instância
          • Gerenciar o acesso à interface do JupyterLab de uma instância
          • Usar chaves de criptografia gerenciadas pelo cliente
          • Configurar uma rede
          • Usar uma instância de notebooks gerenciada em um perímetro de serviço
        • Resolver problemas em notebooks gerenciados
      • Notebooks gerenciados pelo usuário
        • Introdução a notebooks gerenciados pelo usuário
        • Começar
          • Crie uma instância de notebooks gerenciados pelo usuário usando o Console do Cloud
        • Configurar uma instância de notebooks gerenciados pelo usuário
          • Criar uma instância de notebooks gerenciados pelo usuário
          • Criar a versão específica de uma instância
          • Instalar dependências
          • Escolher uma imagem de máquina virtual
          • Criar uma instância com um contêiner personalizado
        • Explorar dados
          • Ciência de dados com R no Google Cloud: tutorial de análise de dados exploratórios
        • Monitoramento
          • Monitorar o status de integridade
          • Registro de auditoria
        • Controle o acesso
          • Controle de acesso
          • Gerenciar o acesso a uma instância
          • Gerenciar o acesso à interface do JupyterLab de uma instância
          • Chaves de criptografia gerenciadas pelo cliente
          • Usar uma instância de notebooks gerenciada pelo usuário em um perímetro de serviço
          • Usar uma máquina virtual protegida com notebooks gerenciados pelo usuário
          • Tutorial: criar uma instância de notebooks em uma rede VPC
        • Manter
          • Migrar para uma instância do Vertex AI Workbench
          • Salvar um notebook no GitHub
          • Fazer backup dos seus dados usando um snapshot
          • Encerrar uma instância de notebooks gerenciados pelo usuário
          • Alterar o tipo de máquina e configurar GPUs de uma instância de notebooks gerenciada pelo usuário
          • Fazer upgrade do ambiente de uma instância de notebooks gerenciada pelo usuário
          • Migrar os dados para uma nova instância de notebooks gerenciados pelo usuário
          • Registrar uma instância legada com a API Notebooks
          • Acessar o JupyterLab usando SSH
        • Resolver problemas em notebooks gerenciados pelo usuário
  • Suporte do Terraform para a Vertex AI
  • Desenvolvimento de modelos de IA preditiva
  • Visão geral
  • Desenvolvimento de modelos do AutoML
    • Visão geral do treinamento do AutoML
    • Dados de imagem
      • Classificação
        • Preparar dados
        • Criar conjunto de dados
        • Treinar modelo
        • Avaliar o modelo
        • Receber previsões
        • Interpretar resultados
      • Detecção de objetos
        • Preparar dados
        • Criar conjunto de dados
        • Treinar modelo
        • Avaliar o modelo
        • Receber previsões
        • Interpretar resultados
      • Codificar dados de imagem usando Base64
      • Exportar um modelo do AutoML Edge
    • Dados em tabela
      • Visão geral
      • Introdução aos dados tabulares
      • Fluxos de trabalho tabulares
        • Visão geral
        • Engenharia de atributos
        • End to End AutoML
          • Visão geral
          • Treinar um modelo
          • Receber inferências on-line
          • Receber inferências em lote
        • TabNet
          • Visão geral
          • Treinar um modelo
          • Receber inferências on-line
          • Receber inferências em lote
        • Amplitude e profundidade
          • Visão geral
          • Treinar um modelo
          • Receber inferências on-line
          • Receber inferências em lote
        • Previsão
          • Visão geral
          • Treinar um modelo
          • Receber inferências on-line
          • Receber inferências em lote
        • Preço
        • Contas de serviço
        • Gerenciar cotas
      • Fazer classificações e regressões com o AutoML
        • Visão geral
        • Guia de início rápido: classificação do AutoML (console do Cloud)
        • Preparação de dados de treinamento
        • Criar conjunto de dados
        • Treinar um modelo
        • Avaliar o modelo
        • Ver arquitetura do modelo
        • Receber inferências on-line
        • Receber inferências em lote
        • Exportar modelo
      • Fazer previsões com o AutoML
        • Visão geral
        • Preparação de dados de treinamento
        • Criar conjunto de dados
        • Treinar um modelo
        • Avaliar o modelo
        • Receber inferências
        • Previsão hierárquica
      • Fazer previsões com o ARIMA+
      • Fazer previsões com o Prophet
      • Executar a reconciliação de entidade
      • Atribuições de recursos para classificação e regressão
      • Atribuições de recursos para previsão
      • Tipos de dados e transformações para dados tabulares do AutoML
      • Parâmetros de treinamento para previsão
      • Divisões de dados tabulares
      • Práticas recomendadas para criar dados de treinamento tabular
      • Previsão com insights de séries temporais
    • Treinar um modelo do AutoML Edge
      • Como usar o Console
      • Como usar a API
    • AutoML Text
      • Migrar do AutoML Text para o Gemini.
      • Gemini para usuários de texto do AutoML
  • Treinamento personalizado
    • Visão geral do treinamento personalizado
    • Carregar e preparar dados
      • Visão geral da preparação de dados
      • Usar o Cloud Storage como um sistema de arquivos ativado
      • Ativar um compartilhamento de NFS para treinamento personalizado
      • Usar conjuntos de dados gerenciados
    • Treinamento personalizado da Vertex AI
      • Visão geral do treinamento personalizado na Vertex AI
      • Preparar aplicativo de treinamento
        • Entenda o serviço de treinamento personalizado
        • Preparar código de treinamento
        • Usar contêineres pré-criados
          • Criar um aplicativo de treinamento em Python para um contêiner pré-criado
          • Contêineres pré-criados para treinamento personalizado
        • Usar contêineres personalizados
          • Contêineres personalizados para treinamento
          • Criar um contêiner personalizado
          • Coloque o código de treinamento em contêineres e faça a execução localmente
        • Usar contêineres e imagens de VM de aprendizado profundo
      • Treinamento em um recurso persistente
        • Visão geral
        • Criar recurso permanente
        • Executar jobs de treinamento em um recurso persistente
        • Receber informações de recursos persistentes
        • Reinicializar um recurso persistente
        • Excluir um recurso persistente
      • Configure o job de treinamento
        • Escolher um método de treinamento personalizado
        • Definir as configurações do contêiner para treinamento
        • Configurar recursos de computação para treinamento
        • Usar reservas com treinamento
        • Usar VMs spot com o treinamento
      • Enviar o job de treinamento
        • Criar jobs personalizados
        • Ajuste de hiperparâmetros
          • Informações gerais do ajuste de hiperparâmetro
          • Usar o ajuste de hiperparâmetro
        • Criar pipelines de treinamento
        • Programar jobs com base na disponibilidade de recursos
        • Usar o treinamento distribuído
        • Como treinar com VMs do Cloud TPU
        • Usar IP privado para treinamento personalizado
        • Usar a interface do Private Service Connect para treinamento (recomendado)
      • Realizar pesquisa de arquitetura neural
        • Visão geral
        • Configurar o ambiente
        • Tutoriais para usuários iniciantes
        • Práticas recomendadas e fluxo de trabalho
        • Design de tarefas de proxy
        • Otimizar a velocidade de treinamento do PyTorch
        • Usar contêineres de treinamento pré-criados e espaços de pesquisa
      • Monitorar e depurar
        • Monitorar e depurar o treinamento usando um shell interativo
        • Desempenho do treinamento de modelo de perfil
      • Otimizar usando o Vertex AI Vizier
        • Visão geral do Vertex AI Vizier
        • Criar estudos da Vertex AI Vizier
        • Tutoriais de notebooks da Vertex AI Vizier
      • Receber inferências
      • Tutorial: criar um pipeline para treinamento contínuo
      • Criar restrições de política da organização personalizadas
    • Ray na Vertex AI
      • Informações gerais do Ray na Vertex AI
      • Configuração para o Ray na Vertex AI
      • Criar um cluster do Ray na Vertex AI
      • Monitorar clusters do Ray na Vertex AI
      • Dimensionar um cluster do Ray na Vertex AI
      • Desenvolver um aplicativo Ray na Vertex AI
      • Executar o Spark no cluster do Ray na Vertex AI
      • Usar o Ray na Vertex AI com o BigQuery
      • Implantar um modelo e receber inferências
      • Excluir um cluster do Ray
      • Tutoriais de notebooks do Ray na Vertex AI
  • Desenvolvimento de modelos de IA generativa
  • Visão geral
  • Criar e gerenciar conjuntos de dados
  • Visão geral
  • Divisões de dados para modelos do AutoML
  • Criar um conjunto de anotações
  • Excluir um conjunto de anotações
  • Adicionar rótulos (console)
  • Exportar metadados e anotações em um conjunto de dados
  • Gerenciar versões do conjunto de dados
  • Usar o Data Catalog para procurar recursos de modelo e conjunto de dados
  • Receber inferências
  • Visão geral
  • Configurar modelos para inferência
    • Exportar artefatos de modelo para inferência
    • Contêineres pré-criados para inferência
    • Requisitos de contêiner personalizado para inferência
    • Usar um contêiner personalizado para inferência
    • Usar rotas personalizadas arbitrárias
    • Usar o ambiente de execução otimizado do TensorFlow
    • Fornecer inferências com o NVIDIA Triton
    • Rotinas de inferência personalizadas
  • Receber inferências on-line
    • Criar um endpoint
      • Escolher um tipo de endpoint
      • Criar um endpoint público
      • Usar endpoints públicos dedicados (recomendado)
      • Usar endpoints particulares dedicados com base no Private Service Connect (recomendado)
      • Usar endpoints de acesso a serviços particulares
    • Implantar um modelo em um endpoint
      • Visão geral da implantação de modelos
      • Recursos de computação para inferência
      • Implantar um modelo usando o console do Google Cloud
      • Implantar um modelo usando a CLI gcloud ou a API Vertex AI
      • Usar uma implantação em massa para substituir um modelo implantado
      • Cancelar a implantação de um modelo e excluir o endpoint
      • Usar Cloud TPUs para inferência on-line
      • Usar reservas com inferência
      • Usar VMs de início flexível com inferência
      • Usar VMs spot com inferência
    • Receber uma inferência on-line
    • Conferir métricas de inferência on-line
      • Conferir as métricas do endpoint
      • Ver métricas do DCGM
    • Compartilhar recursos entre implantações
    • Usar a geração de registros de inferência on-line
  • Receber inferências em lote
    • Receber previsões em lote de um modelo personalizado
    • Receber previsões em lote de um modelo autoimplantado do Model Garden
  • Disponibilizar modelos de IA generativa
    • Implantar modelos de IA generativa
    • Disponibilizar modelos abertos do Gemma usando Cloud TPUs com Saxml
    • Disponibilizar modelos abertos de Llama 3 usando Cloud TPUs de vários hosts com o Saxml
    • Exibir um modelo DeepSeek-V3 usando a implantação de GPU de vários hosts
  • Políticas personalizadas da organização
  • Tutoriais de notebooks de inferência da Vertex AI
  • Realizar pesquisas de semelhança vetorial
  • Visão geral do Vector Search
  • Testar
  • Começar
    • Guia de início rápido da Pesquisa de vetores
    • Antes de começar
    • Tutoriais de notebook
  • Sobre a pesquisa híbrida
  • Criar e gerenciar índice
    • Estrutura e formato dos dados de entrada
    • Criar e gerenciar seu índice
    • Índices otimizados para armazenamento
    • Parâmetros de configuração de índice
    • Atualizar e recriar índice
    • Filtrar correspondências vetoriais
    • Importar dados de índice do BigQuery
    • Embeddings com metadados
  • Implantar e consultar um índice
    • Private Service Connect (recomendado)
      • Configurar a Pesquisa vetorial com o Private Service Connect
      • Consulta
      • Autenticação do JSON Web Token
    • Endpoint público
      • Implantar
      • Consulta
    • Acesso privado a serviços
      • Configurar uma conexão de peering de redes VPC
      • Implantar
      • Consulta
      • Autenticação do JSON Web Token
  • Monitorar um índice implantado
  • Usar políticas personalizadas da organização
  • Receber suporte
  • Operações de machine learning (MLOps)
  • Gerenciar recursos
    • Gerenciamento de recursos na Vertex AI
    • Vertex AI Feature Store
      • Sobre o Vertex AI Feature Store
      • Configurar recursos
        • Preparar fonte de dados
        • Criar um grupo de elementos
        • Criar um recurso
      • Configurar a veiculação on-line
        • Tipos de veiculação on-line
        • Criar uma instância de loja on-line
        • Criar uma instância de visualização de recursos
      • Controle o acesso
        • Controlar o acesso a recursos
      • Sincronizar loja on-line
        • Iniciar uma sincronização de dados
        • Listar operações de sincronização
        • Atualizar recursos em uma visualização de recursos
      • Disponibilizar recursos
        • Veicular atributos na loja on-line
        • Exibir valores de atributos históricos
      • Monitoramento
        • Monitorar recursos
      • Gerenciar recursos de funcionalidades
        • Listar grupos de recursos
        • Listar recursos
        • Atualizar um grupo de recursos
        • Atualizar um recursos
        • Excluir um grupo de recursos
        • Excluir um recurso
      • Gerenciar recursos de lojas on-line
        • Listar lojas on-line
        • Visualizações de recursos em lista
        • Atualizar uma loja on-line
        • Atualizar uma visualização de recurso
        • Excluir uma loja on-line
        • Excluir uma visualização de recurso
      • Metadados do recurso
        • Atualizar rótulos
      • Pesquisar recursos
        • Pesquisar recursos
        • Pesquisar metadados de recursos no Data Catalog
      • Gerenciar incorporações
        • Pesquisar usando embeddings
      • Tutoriais de notebook
        • Notebooks de tutoriais do Vertex AI Feature Store
    • Feature Store da Vertex AI (legado)
      • Sobre o Vertex AI Feature Store (legado)
      • Modelo e recursos de dados
      • Requisitos de dados de origem
      • Configuração
      • Práticas recomendadas
      • Usar o Vertex AI Feature Store (legado)
        • Gerenciar featurestores
        • Gerenciar tipos de entidades
        • Gerenciar e encontrar recursos
        • Importação em lote
        • Importação de streaming
        • Exibição on-line
        • Buscar dados de treinamento
        • Valores exportar atributo
        • Excluir valores de atributo
        • Monitoramento
        • Controlar o acesso a recursos
  • Gerenciar modelos
    • Introdução ao Vertex AI Model Registry
    • Controle de versão no Registro de modelos
    • Importar modelos para o Registro de modelos
    • Copiar modelos no Registro de modelos
    • Excluir um modelo
    • Integração com o BigQuery ML
    • Usar aliases de modelos
    • Usar identificadores de modelo
    • Usar o Data Catalog para procurar recursos de modelo e conjunto de dados
  • Avaliar modelos
    • Avaliação de modelos na Vertex AI
    • Execução da avaliação de modelos na Vertex AI
    • Avaliação do modelo para imparcialidade
      • Introdução à avaliação de modelos para imparcialidade
      • Métricas de viés de dados para a Vertex AI
      • Métricas de viés do modelo para a Vertex AI
    • Tutoriais de notebooks de avaliação de modelos
  • Orquestrar fluxos de trabalho de ML usando pipelines
    • Introdução
    • Interfaces
    • Configurar seu projeto
    • Construir um canal
    • Executar um pipeline
    • Usar modelos de pipeline
      • Criar, fazer upload e usar um modelo de pipeline
      • Usar um modelo pré-criado da Galeria de modelos
    • Configurar o pipeline
      • Configurar o cache de execução
      • Configurar a política de falha
      • Configurar novas tentativas para uma tarefa de pipeline
      • Especificar tipos de máquina para uma etapa de pipeline
      • Solicitar recursos de máquina do Google Cloud com os pipelines da Vertex AI
      • Configurar a interface do Private Service Connect (recomendado)
      • Configurar secrets com o Secret Manager
      • Configurar uma execução de pipeline em um recurso permanente
    • Programar e acionar execuções de pipeline
      • Programar uma execução de pipeline com a API Scheduler
      • Acionar uma execução de pipeline com o Pub/Sub
    • Cancelar ou excluir execuções de pipeline
      • Cancelar execuções de pipeline
      • Excluir execuções de pipeline
    • Executar um pipeline novamente
    • Monitorar a execução do pipeline
      • Conferir métricas de pipeline
      • Ver registros do job de pipeline
      • Encaminhar registros para um coletor do Cloud Pub/Sub
      • Configurar notificações por e-mail
    • Visualizar resultados
      • Visualizar e analisar resultados de pipeline
      • Rastrear a linhagem de artefatos de pipeline
      • HTML de saída e Markdown
    • Rotulagem de recursos pelo Vertex AI Pipelines
    • Entender os custos de execução do pipeline
    • Migre do Kubeflow Pipelines para o Vertex AI Pipelines
    • Usar restrições personalizadas
    • Componentes do Google Cloud Pipeline
      • Início rápido
      • Introdução aos componentes de pipeline do Google Cloud
      • Lista de componentes do Google Cloud Pipeline
      • Usar componentes de pipeline do Google Cloud
      • Criar os próprios componentes de pipeline
    • Tutoriais do Vertex AI Pipelines
      • Notebooks de tutorial
  • Acompanhar e analisar metadados de ML
    • Introdução ao Vertex ML Metadata
    • Modelo e recursos de dados
    • Configurar o armazenamento de metadados do projeto
    • Usar o Vertex ML Metadata
      • Rastrear metadados do Vertex ML
      • Analisar Vertex ML Metadata
      • Gerenciar metadados do Vertex ML
      • Esquemas do sistema
      • Criar e usar esquemas personalizados
      • Usar restrições personalizadas com repositórios de metadados
    • Tutoriais de notebooks do Vertex ML Metadata
  • Entender o comportamento do modelo
    • Introdução à Explainable AI
    • Configurar explicações baseadas em exemplos para treinamento personalizado
    • Configurar explicações baseadas em recursos para treinamento personalizado
      • Configurar explicações
      • Definir as configurações de visualização
      • Melhorar as explicações
    • Configurar explicações baseadas em recursos para classificação de imagens do AutoML
      • Definir as configurações de visualização
      • Melhorar as explicações
    • Usar o TensorFlow para explicações
    • Ver as explicações
    • Limitações da Explainable AI
    • Tutoriais de notebooks da Explainable AI
  • Monitorar a qualidade do modelo
    • Introdução ao monitoramento de modelos
    • Monitoramento de modelos v2
      • Configurar o monitoramento de modelos
      • Executar jobs de monitoramento
      • Gerenciar monitores de modelos
    • Monitoramento de modelos v1
      • Fornecer esquemas para o monitoramento de modelos
      • Detectar desvios e deslocamentos de recursos
      • Monitorar desvios e atribuições de atribuição de recursos
      • Monitoramento de modelos para previsões em lote
  • Acompanhar experimentos
    • Introdução aos experimentos da Vertex AI
    • Configurar o Vertex AI Experiments
    • Criar um experimento
    • Criar e gerenciar execuções de experimentos
    • Dados de registros
      • Registrar dados automaticamente em uma execução de experimento
      • Registrar dados em uma execução do experimento
    • Registrar modelos em uma execução de experimento
    • Rastrear execuções e artefatos
    • Adicionar execução do pipeline ao experimento
    • Executar o job de treinamento com o acompanhamento de experimentos
    • Comparar e analisar execuções
    • Usar o TensorBoard da Vertex AI
      • Introdução ao TensorBoard da Vertex AI
      • Configurar o TensorBoard da Vertex AI
      • Configurar o script de treinamento
      • Usar o TensorBoard da Vertex AI com treinamento personalizado
      • Usar o TensorBoard da Vertex AI com o Vertex AI Pipelines
      • Registrar manualmente dados do TensorBoard
      • Fazer upload dos registros atuais
      • Conferir o TensorBoard da Vertex AI
    • Tutoriais de notebook
      • Primeiros passos com os experimentos da Vertex AI
      • Comparar execuções de pipeline
      • Treinamento de modelo
      • Comparar modelos
      • Geração automática de registros
      • Registro automático de treinamento personalizado
      • Rastrear parâmetros e métricas para jobs de treinamento personalizado
      • Excluir experimentos desatualizados do Vertex AI TensorBoard
      • Treinamento personalizado do Vertex AI TensorBoard com contêineres personalizados
      • Treinamento personalizado do Vertex AI TensorBoard com contêineres pré-criados
      • Ajuste de hiperparâmetros do Vertex AI com o painel HParams
      • Criar perfil de desempenho de treinamento de modelo usando o Cloud Profiler
      • Criar perfil de desempenho de treinamento de modelo usando o Cloud Profiler no treinamento personalizado com contêiner pré-criado
      • Integração do TensorBoard da Vertex AI com Vertex AI Pipelines
  • Administrar
  • Controle de acesso
    • Controle de acesso com o IAM
    • Permissões IAM
    • Configurar um projeto para uma equipe
    • Controlar o acesso aos endpoints da Vertex AI
    • Usar uma conta de serviço personalizada
    • Usar chaves de criptografia gerenciadas pelo cliente
    • Transparência no acesso
  • Monitorar recursos da Vertex AI
    • Métricas do Cloud Monitoring
    • Informações sobre registros de auditoria
  • Rede
    • Visão geral do acesso à rede
    • Como acessar a API Vertex AI
    • Como acessar os serviços da Vertex AI usando o acesso a serviços particulares
    • Como acessar serviços da Vertex AI por endpoints do PSC
    • Como acessar os serviços da Vertex AI por interfaces do PSC
    • Configurar o peering de rede VPC
    • Configurar a conectividade com outras redes
    • Configurar uma interface do Private Service Connect
    • Tutorial: acessar pipelines de treinamento de modo privado no local
    • Tutorial: acessar um índice de pesquisa de vetor de modo privado no local
    • Tutorial: acessar a API Generative AI no local
    • Tutorial: acessar predições em lote de modo privado no local
    • Tutorial: criar uma instância do Vertex AI Workbench em uma rede VPC
  • Segurança
    • VPC Service Controls
    • Permitir o acesso de endpoints públicos a recursos protegidos fora de um perímetro
    • Permitir o acesso multicloud a recursos protegidos de fora de um perímetro
    • Permitir o acesso a recursos protegidos dentro de um perímetro
  • Recursos de nome
  • Amostras e tutoriais