Ir para o conteúdo principal
Documentação
Áreas de tecnologia
close
IA e AA
Desenvolvimento de aplicações
Alojamento de aplicações
Computação
Estatísticas e pipelines de dados
Bases de dados
Distribuído, híbrido e multinuvem
IA generativa
Soluções para setores
Trabalhar em rede
Observabilidade e monitorização
Segurança
Storage
Ferramentas em vários produtos
close
Gestão de acesso e recursos
Gestão de custos e utilização
SDK Cloud da Google, linguagens, frameworks e ferramentas
Infraestrutura como código
Migração
Sites relacionados
close
Google Cloud Home
Avaliação gratuita e nível gratuito
Architecture Center
Blogue
Contactar equipa de vendas
Google Cloud Developer Center
Google Developer Center
Google Cloud Marketplace
Documentação do Google Cloud Marketplace
Melhoria de competências do Google Cloud
Google Cloud Solution Center
Apoio técnico do Google Cloud
Canal do YouTube do Google Cloud Tech
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Fazer login
Vertex AI
Guias
Referência
Amostras
Apoio técnico
Recursos
Contacte-nos
Começar gratuitamente
Documentação
Guias
Referência
Amostras
Apoio técnico
Recursos
Áreas de tecnologia
Mais
Ferramentas em vários produtos
Mais
Sites relacionados
Mais
Console
Contacte-nos
Começar gratuitamente
Descubra
Vista geral
Introdução ao Vertex AI
MLOps no Vertex AI
Interfaces para o Vertex AI
Guias para principiantes do Vertex AI
Prepare um modelo do AutoML
Prepare um modelo personalizado
Obtenha inferências a partir de um modelo personalizado
Prepare um modelo com o Vertex AI e o SDK Python
Introdução
Pré-requisitos
Crie um notebook
Crie um conjunto de dados
Crie um script de preparação
Prepare um modelo
Tire uma conclusão
Estruturas de ML integradas
PyTorch
TensorFlow
Vertex AI para utilizadores do BigQuery
Glossário
Começar
Configure um projeto e um ambiente de programação
Instale o SDK Vertex AI para Python
Escolha um método de preparação
Experimente um tutorial
Vista geral dos tutoriais
Tutoriais do AutoML
Olá dados de imagens
Vista geral
Configure o seu projeto e ambiente
Crie um conjunto de dados e importe imagens
Prepare um modelo de classificação de imagens da Plataforma AutoML
Avalie e analise o desempenho do modelo
Implemente um modelo num ponto final e faça uma inferência
Limpe o projeto
Dados tabulares do Hello
Vista geral
Configure o seu projeto e ambiente
Crie um conjunto de dados e prepare um modelo de classificação do AutoML
Implemente um modelo e peça uma inferência
Limpe o projeto
Tutoriais de formação personalizados
Prepare um modelo tabular personalizado
Prepare um modelo de classificação de imagens do TensorFlow Keras
Vista geral
Configure o seu projeto e ambiente
Prepare um modelo de classificação de imagens personalizado
Publicar previsões a partir de um modelo de classificação de imagens personalizado
Limpe o projeto
Ajuste um modelo de classificação de imagens com dados personalizados
Tutoriais de notebooks de formação personalizados
Use a IA generativa e os MDIs/CEs
Acerca da IA generativa
Use as ferramentas de desenvolvimento do Vertex AI
Vista geral das ferramentas de desenvolvimento
Use o SDK Vertex AI
Vista geral
Introdução ao SDK Vertex AI para Python
SDK Vertex AI para classes Python
Vista geral das classes do SDK Vertex AI
Classes de dados
Aulas de formação
Aulas de modelagem
Classes de previsão
Acompanhamento de aulas
Use o Vertex AI em notebooks
Escolha uma solução de notebook
Colab Enterprise
Início rápido:crie um bloco de notas com a consola
Ligue-se a um tempo de execução
Faça a gestão dos tempos de execução e dos modelos de tempo de execução
Crie um modelo de tempo de execução
Crie um tempo de execução
Vertex AI Workbench
Introdução
Tutoriais do bloco de notas
Começar
Crie uma instância através da consola
Agende a execução de um bloco de notas
Configure uma instância
Crie uma instância
Crie uma versão específica de uma instância
Crie uma instância com acesso às credenciais do utilizador
Crie uma instância com a computação confidencial
Adicione um ambiente conda
Encerramento por inatividade
Crie uma instância com um contentor personalizado
Crie uma instância com o Dataproc ativado
Crie uma instância com credenciais de terceiros
Faça a gestão de funcionalidades através de metadados
Use reservas
Associe ao separador de dados
Consultar dados no BigQuery a partir do JupyterLab
Aceda a contentores e ficheiros do Cloud Storage no JupyterLab
Explore e visualize dados
Explore e visualize dados no BigQuery
Manter
Faça a gestão do seu ambiente conda
Cópia de segurança e restauro
Guarde um bloco de notas no GitHub
Use um instantâneo
Use o Cloud Storage
Encerre uma instância
Atualize o ambiente de uma instância
Aceda ao JupyterLab através de SSH
Migre dados para uma nova instância
Altere o tipo de máquina e configure as GPUs
Aprovisione recursos com o Terraform
Monitor
Monitorize o estado de saúde
Controle o acesso
Controlo de acesso
Faça a gestão do acesso a uma instância
Faça a gestão do acesso à interface do JupyterLab de uma instância
Use chaves de encriptação geridas pelo cliente
Use uma instância num perímetro de serviço
Resolva problemas do Vertex AI Workbench
Notas de lançamento do Vertex AI Workbench
Blocos de notas geridos
Introdução aos notebooks geridos
Começar
Crie uma instância de notebooks geridos através da Cloud Console
Agende uma execução de notebooks geridos
Configure uma instância de notebooks geridos
Crie uma instância com um contentor personalizado
Execute uma instância de notebooks geridos num cluster do Dataproc
Use o Dataproc Serverless Spark com blocos de notas geridos
Encerramento por inatividade
Versões de notebooks geridos
Associe ao separador de dados
Consultar dados no BigQuery a partir do JupyterLab
Aceda a contentores e ficheiros do Cloud Storage no JupyterLab
Explore e visualize dados
Vista geral
Explore e visualize dados no BigQuery
Desenvolva um modelo
Programação de modelos numa instância de notebooks geridos
Implementação
Execute ficheiros de blocos de notas com o executor
Execute execuções de blocos de notas com parâmetros
Manter
Migre para uma instância do Vertex AI Workbench
Guarde um bloco de notas no GitHub
Altere o tipo de máquina e configure as GPUs de uma instância de blocos de notas geridos
Atualize o ambiente de uma instância de notebooks geridos
Migre dados para uma nova instância de blocos de notas geridos
Monitor
Registo de auditoria
Controle o acesso
Controlo de acesso
Faça a gestão do acesso a uma instância
Faça a gestão do acesso à interface do JupyterLab de uma instância
Use chaves de encriptação geridas pelo cliente
Configure uma rede
Use uma instância de notebooks gerida num perímetro de serviço
Resolva problemas com notebooks geridos
Notebooks geridos pelo utilizador
Introdução aos blocos de notas geridos pelo utilizador
Começar
Crie uma instância de notebooks geridos pelo utilizador através da Cloud Console
Configure uma instância de blocos de notas gerida pelo utilizador
Crie uma instância de notebooks geridos pelo utilizador
Crie uma versão específica de uma instância
Instale dependências
Escolha uma imagem da máquina virtual
Crie uma instância com um contentor personalizado
Explorar dados
Ciência de dados com R no Google Cloud: tutorial de análise exploratória de dados
Monitor
Monitorize o estado de saúde
Registo de auditoria
Controle o acesso
Controlo de acesso
Faça a gestão do acesso a uma instância
Faça a gestão do acesso à interface do JupyterLab de uma instância
Chaves de encriptação geridas do cliente
Use uma instância de notebooks gerida pelo utilizador num perímetro de serviço
Use uma máquina virtual protegida com blocos de notas geridos pelo utilizador
Tutorial: crie uma instância de notebooks numa rede de VPC
Manter
Migre para uma instância do Vertex AI Workbench
Guarde um bloco de notas no GitHub
Faça uma cópia de segurança dos seus dados através de uma captura instantânea
Encerre uma instância de notebooks geridos pelo utilizador
Altere o tipo de máquina e configure as GPUs de uma instância de blocos de notas gerida pelo utilizador
Atualize o ambiente de uma instância de notebooks geridos pelo utilizador
Migre dados para uma nova instância de blocos de notas geridos pelo utilizador
Registe uma instância antiga com a API Notebooks
Aceda ao JupyterLab através de SSH
Resolva problemas de notebooks geridos pelo utilizador
Apoio técnico do Terraform para o Vertex AI
Desenvolvimento de modelos de IA preditiva
Vista geral
Programação de modelos do AutoML
Vista geral da preparação do AutoML
Dados da imagem
Classificação
Prepare os dados
Crie um conjunto de dados
Prepare o modelo
Avalie o modelo
Obtenha previsões
Interprete os resultados
Deteção de objetos
Prepare os dados
Crie um conjunto de dados
Prepare o modelo
Avalie o modelo
Obtenha previsões
Interprete os resultados
Codifique os dados de imagens com Base64
Exporte um modelo do AutoML Edge
Dados tabulares
Vista geral
Introdução aos dados tabulares
Fluxos de trabalho tabulares
Vista geral
Engenharia de funcionalidades
AutoML completo
Vista geral
Prepare um modelo
Obtenha inferências online
Obtenha inferências em lote
TabNet
Vista geral
Prepare um modelo
Obtenha inferências online
Obtenha inferências em lote
Amplo e profundo
Vista geral
Prepare um modelo
Obtenha inferências online
Obtenha inferências em lote
Previsão
Vista geral
Prepare um modelo
Obtenha inferências online
Obtenha inferências em lote
Preço
Contas de serviço
Faça a gestão de quotas
Realize a classificação e a regressão com o AutoML
Vista geral
Início rápido: classificação do AutoML (Cloud Console)
Organize os dados de preparação
Crie um conjunto de dados
Prepare um modelo
Avalie o modelo
Veja a arquitetura do modelo
Obtenha inferências online
Obtenha inferências em lote
Exporte o modelo
Faça previsões com o AutoML
Vista geral
Organize os dados de preparação
Crie um conjunto de dados
Prepare um modelo
Avalie o modelo
Obtenha inferências
Previsão hierárquica
Faça previsões com o ARIMA+
Faça previsões com o Prophet
Faça a conciliação de entidades
Atribuições de funcionalidades para classificação e regressão
Atribuições de funcionalidades para previsões
Tipos de dados e transformações para dados tabulares do AutoML
Parâmetros de preparação para previsão
Divisões de dados para dados tabulares
Práticas recomendadas para criar dados de preparação tabulares
Previsão com as estatísticas de séries temporais
Prepare um modelo do AutoML Edge
Usar a consola
Usar a API
AutoML Text
Migre do AutoML Text para o Gemini
Gemini para utilizadores de texto do AutoML
Formação personalizada
Vista geral da formação personalizada
Carregue e prepare dados
Vista geral da preparação de dados
Use o Cloud Storage como um sistema de ficheiros montado
Monte uma partilha NFS para a formação personalizada
Use conjuntos de dados geridos
Preparação personalizada do Vertex AI
Vista geral da preparação personalizada no Vertex AI
Prepare a aplicação de preparação
Compreenda o serviço de preparação personalizada
Prepare o código de preparação
Use contentores pré-criados
Crie uma aplicação de preparação Python para um contentor pré-criado
Contentores pré-criados para preparação personalizada
Use contentores personalizados
Contentores personalizados para preparação
Crie um contentor personalizado
Coloque em contentores e execute código de preparação localmente
Use imagens de VMs e contentores de aprendizagem avançada
Faça a preparação num recurso persistente
Visão geral
Crie um recurso persistente
Execute tarefas de preparação num recurso persistente
Obtenha informações persistentes sobre recursos
Reinicie um recurso persistente
Elimine um recurso persistente
Configure a tarefa de preparação
Escolha um método de preparação personalizado
Configure as definições do contentor para a preparação
Configure recursos de computação para a preparação
Use reservas com formação
Use VMs do Spot com a preparação
Envie tarefa de preparação
Crie tarefas personalizadas
Aperfeiçoamento de hiperparâmetros
Vista geral do aperfeiçoamento de hiperparâmetros
Use o aperfeiçoamento de hiperparâmetros
Crie pipelines de preparação
Agende tarefas com base na disponibilidade de recursos
Use a preparação distribuída
Formação com VMs do Cloud TPU
Use o IP privado para a preparação personalizada
Use a interface do Private Service Connect para a preparação (recomendado)
Realize a pesquisa de arquitetura neural
Vista geral
Configure o ambiente
Tutoriais para principiantes
Práticas recomendadas e fluxo de trabalho
Design de tarefas de proxy
Otimize a velocidade de preparação para o PyTorch
Use contentores de preparação pré-criados e espaços de pesquisa
Monitorize e depure
Monitorize e depure a preparação através de um shell interativo
Analise o desempenho da preparação do modelo de perfil
Otimize com o Vertex AI Vizier
Vista geral do Vertex AI Vizier
Crie estudos do Vertex AI Vizier
Tutoriais de blocos de notas do Vertex AI Vizier
Obtenha inferências
Tutorial: crie um pipeline para formação contínua
Crie restrições de políticas da organização personalizadas
Ray no Vertex AI
Vista geral do Ray no Vertex AI
Configuração do Ray no Vertex AI
Crie um cluster do Ray na Vertex AI
Monitorize clusters do Ray no Vertex AI
Dimensione um cluster do Ray no Vertex AI
Desenvolva uma aplicação Ray no Vertex AI
Execute o Spark no cluster do Ray no Vertex AI
Use o Ray no Vertex AI com o BigQuery
Implemente um modelo e obtenha inferências
Elimine um cluster do Ray
Tutoriais do Ray no Vertex AI Notebook
Desenvolvimento de modelos de IA generativa
Vista geral
Crie e faça a gestão de conjuntos de dados
Vista geral
Divisões de dados para modelos do AutoML
Crie um conjunto de anotações
Elimine um conjunto de anotações
Adicione etiquetas (consola)
Exporte metadados e anotações de um conjunto de dados
Faça a gestão das versões do conjunto de dados
Use o Data Catalog para pesquisar recursos de modelos e conjuntos de dados
Obtenha inferências
Vista geral
Configure modelos para inferência
Exporte artefactos do modelo para inferência
Contentores pré-criados para inferência
Requisitos de contentores personalizados para inferência
Use um contentor personalizado para a inferência
Use rotas personalizadas arbitrárias
Use o tempo de execução do TensorFlow otimizado
Publique inferências com o NVIDIA Triton
Rotinas de inferência personalizadas
Obtenha inferências online
Crie um ponto final
Escolha um tipo de ponto final
Crie um ponto final público
Use pontos finais públicos dedicados (recomendado)
Use pontos finais privados dedicados baseados no Private Service Connect (recomendado)
Use pontos finais de acesso a serviços privados
Implemente um modelo num ponto final
Vista geral da implementação de modelos
Recursos de computação para inferência
Implemente um modelo através da Google Cloud Console
Implemente um modelo através da CLI gcloud ou da API Vertex AI
Use uma implementação contínua para substituir um modelo implementado
Anule a implementação de um modelo e elimine o ponto final
Use Cloud TPUs para inferência online
Use reservas com inferência online
Use VMs de início flexível com inferência
Use VMs do Spot com inferência
Obtenha uma inferência online
Veja métricas de inferência online
Veja as métricas dos pontos finais
Veja métricas do DCGM
Partilhe recursos entre implementações
Use o registo de inferência online
Obtenha inferências em lote
Obtenha inferências em lote a partir de um modelo personalizado
Use reservas com inferência em lote
Obtenha a previsão em lote a partir de um modelo do Model Garden implementado autonomamente
Publique modelos de IA generativa
Implemente modelos de IA generativa
Publique modelos abertos Gemma usando as Cloud TPUs com o Saxml
Publique modelos abertos Llama 3 com TPUs na nuvem multi-anfitrião com o Saxml
Publique um modelo DeepSeek-V3 através da implementação de GPUs com vários anfitriões
Políticas da organização personalizadas
Tutoriais de blocos de notas de inferência da Vertex AI
Realize pesquisas de semelhanças vetoriais
Vista geral do Vector Search
Experimentar
Começar
Início rápido do Vector Search
Antes de começar
Tutoriais do bloco de notas
Acerca da pesquisa híbrida
Crie e faça a gestão do índice
Formato e estrutura dos dados de entrada
Crie e faça a gestão do seu índice
Índices otimizados para armazenamento
Parâmetros de configuração do índice
Atualize e recrie o índice
Filtre correspondências vetoriais
Importe dados de índice do BigQuery
Incorporações com metadados
Implemente e consulte um índice
Private Service Connect (recomendado)
Configure a pesquisa vetorial com o Private Service Connect
Consulta
Autenticação de Símbolo da Web JSON
Ponto final público
Implementação
Consulta
Acesso a serviços privados
Configure uma ligação de intercâmbio da rede da VPC
Implementação
Consulta
Autenticação de Símbolo da Web JSON
Monitorize um índice implementado
Use políticas da organização personalizadas
Obter apoio técnico
Operações de aprendizagem automática (MLOps)
Faça a gestão de funcionalidades
Gestão de funcionalidades no Vertex AI
Vertex AI Feature Store
Acerca do Vertex AI Feature Store
Configure funcionalidades
Prepare a origem de dados
Crie um grupo de funcionalidades
Crie uma funcionalidade
Configure a publicação online
Tipos de publicações online
Crie uma instância de loja online
Crie uma instância da vista de funcionalidades
Controle o acesso
Controle o acesso aos recursos
Sincronize a loja online
Inicie uma sincronização de dados
Apresentar operações de sincronização
Atualize funcionalidades numa vista de funcionalidades
Publicar funcionalidades
Apresente funcionalidades da loja online
Apresente valores de funcionalidades históricos
Monitor
Funcionalidades do monitor
Faça a gestão dos recursos de funcionalidades
Liste grupos de funcionalidades
Funcionalidades de listas
Atualize um grupo de funcionalidades
Atualize uma funcionalidade
Elimine um grupo de funcionalidades
Elimine um elemento
Faça a gestão dos recursos da loja online
Apresente lojas online
Visualizações de funcionalidades de listas
Atualize uma loja online
Atualize uma vista de funcionalidades
Elimine uma loja online
Elimine uma vista de recursos
Metadados de funcionalidades
Atualize etiquetas
Pesquisar recursos
Pesquisar recursos
Pesquise metadados de recursos no Data Catalog
Faça a gestão das incorporações
Pesquise através de incorporações
Tutoriais do bloco de notas
Notebooks de tutoriais do Vertex AI Feature Store
Vertex AI Feature Store (antigo)
Acerca do Vertex AI Feature Store (antigo)
Modelo de dados e recursos
Requisitos de dados de origem
Configuração
Práticas recomendadas
Use o Vertex AI Feature Store (antigo)
Faça a gestão de featurestores
Faça a gestão dos tipos de entidades
Faça a gestão e encontre funcionalidades
Importação em lote
Importação com streaming
Publicação online
Obtenha dados de preparação
Exporte valores de funcionalidades
Elimine valores de atributos
Monitorização
Controle o acesso aos recursos
Faça a gestão de modelos
Introdução ao Registo de modelos Vertex AI
Controlo de versões no Registo de modelos
Importe modelos para o Registo de modelos
Copie modelos no Registo de modelos
Elimine um modelo
Integre com o BigQuery ML
Use aliases de modelos
Use etiquetas de modelos
Use o Data Catalog para pesquisar recursos de modelos e conjuntos de dados
Avalie modelos
Avaliação de modelos no Vertex AI
Realize a avaliação de modelos no Vertex AI
Avaliação de modelos para equidade
Introdução à avaliação de modelos para equidade
Métricas de parcialidade dos dados para o Vertex AI
Métricas de parcialidade do modelo para o Vertex AI
Tutoriais de notebooks de avaliação de modelos
Orquestre fluxos de trabalho de AA com pipelines
Introdução
Interfaces
Configure o seu projeto
Crie uma conduta
Execute uma pipeline
Use modelos de pipeline
Crie, carregue e use um modelo de pipeline
Use um modelo pré-criado da galeria de modelos
Configure o seu pipeline
Configure a colocação em cache de execução
Configure a política de falhas
Configure novas tentativas para uma tarefa de pipeline
Especifique os tipos de máquinas para um passo do pipeline
Peça recursos de máquinas do Google Cloud com o Vertex AI Pipelines
Configure a interface do Private Service Connect (recomendado)
Configure Secrets com o Secret Manager
Configure uma execução de pipeline num recurso persistente
Agende e acione execuções de pipelines
Agende uma execução de pipeline com a API Scheduler
Acione uma execução de pipeline com o Pub/Sub
Cancele ou elimine execuções de pipelines
Cancele execuções de pipelines
Elimine execuções de pipelines
Volte a executar um pipeline
Monitorize a execução de pipelines
Veja as métricas do pipeline
Veja os registos de tarefas do pipeline
Encaminhe registos para um destino do Cloud Pub/Sub
Configure as notificações por email
Visualize os resultados
Visualize e analise os resultados do pipeline
Acompanhe a linhagem dos artefactos da pipeline
Produza HTML e Markdown
Etiquetagem de recursos pelos Vertex AI Pipelines
Compreenda os custos de execução do pipeline
Migre dos Kubeflow Pipelines para os Vertex AI Pipelines