Ir para o conteúdo principal

Google Cloud
Documentação Áreas de tecnologia
  • IA e AA
  • Desenvolvimento de aplicações
  • Alojamento de aplicações
  • Computação
  • Estatísticas e pipelines de dados
  • Bases de dados
  • Distribuído, híbrido e multinuvem
  • IA generativa
  • Soluções para setores
  • Trabalhar em rede
  • Observabilidade e monitorização
  • Segurança
  • Storage
Ferramentas em vários produtos
  • Gestão de acesso e recursos
  • Gestão de custos e utilização
  • SDK Cloud da Google, linguagens, frameworks e ferramentas
  • Infraestrutura como código
  • Migração
Sites relacionados
  • Google Cloud Home
  • Avaliação gratuita e nível gratuito
  • Architecture Center
  • Blogue
  • Contactar equipa de vendas
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentação do Google Cloud Marketplace
  • Melhoria de competências do Google Cloud
  • Google Cloud Solution Center
  • Apoio técnico do Google Cloud
  • Canal do YouTube do Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Fazer login
  • Vertex AI
Guias Referência Amostras Apoio técnico Recursos
Contacte-nos Começar gratuitamente
Google Cloud
  • Documentação
    • Guias
    • Referência
    • Amostras
    • Apoio técnico
    • Recursos
  • Áreas de tecnologia
    • Mais
  • Ferramentas em vários produtos
    • Mais
  • Sites relacionados
    • Mais
  • Console
  • Contacte-nos
  • Começar gratuitamente
  • Descubra
  • Vista geral
  • Introdução ao Vertex AI
  • MLOps no Vertex AI
  • Interfaces para o Vertex AI
  • Guias para principiantes do Vertex AI
    • Prepare um modelo do AutoML
    • Prepare um modelo personalizado
    • Obtenha inferências a partir de um modelo personalizado
    • Prepare um modelo com o Vertex AI e o SDK Python
      • Introdução
      • Pré-requisitos
      • Crie um notebook
      • Crie um conjunto de dados
      • Crie um script de preparação
      • Prepare um modelo
      • Tire uma conclusão
  • Estruturas de ML integradas
    • PyTorch
    • TensorFlow
  • Vertex AI para utilizadores do BigQuery
  • Glossário
  • Começar
  • Configure um projeto e um ambiente de programação
  • Instale o SDK Vertex AI para Python
  • Escolha um método de preparação
  • Experimente um tutorial
    • Vista geral dos tutoriais
    • Tutoriais do AutoML
      • Olá dados de imagens
        • Vista geral
        • Configure o seu projeto e ambiente
        • Crie um conjunto de dados e importe imagens
        • Prepare um modelo de classificação de imagens da Plataforma AutoML
        • Avalie e analise o desempenho do modelo
        • Implemente um modelo num ponto final e faça uma inferência
        • Limpe o projeto
      • Dados tabulares do Hello
        • Vista geral
        • Configure o seu projeto e ambiente
        • Crie um conjunto de dados e prepare um modelo de classificação do AutoML
        • Implemente um modelo e peça uma inferência
        • Limpe o projeto
    • Tutoriais de formação personalizados
      • Prepare um modelo tabular personalizado
      • Prepare um modelo de classificação de imagens do TensorFlow Keras
        • Vista geral
        • Configure o seu projeto e ambiente
        • Prepare um modelo de classificação de imagens personalizado
        • Publicar previsões a partir de um modelo de classificação de imagens personalizado
        • Limpe o projeto
      • Ajuste um modelo de classificação de imagens com dados personalizados
    • Tutoriais de notebooks de formação personalizados
  • Use a IA generativa e os MDIs/CEs
  • Acerca da IA generativa
  • Use as ferramentas de desenvolvimento do Vertex AI
  • Vista geral das ferramentas de desenvolvimento
  • Use o SDK Vertex AI
    • Vista geral
    • Introdução ao SDK Vertex AI para Python
    • SDK Vertex AI para classes Python
      • Vista geral das classes do SDK Vertex AI
      • Classes de dados
      • Aulas de formação
      • Aulas de modelagem
      • Classes de previsão
      • Acompanhamento de aulas
  • Use o Vertex AI em notebooks
    • Escolha uma solução de notebook
    • Colab Enterprise
      • Início rápido:crie um bloco de notas com a consola
      • Ligue-se a um tempo de execução
      • Faça a gestão dos tempos de execução e dos modelos de tempo de execução
        • Crie um modelo de tempo de execução
        • Crie um tempo de execução
    • Vertex AI Workbench
      • Introdução
      • Tutoriais do bloco de notas
      • Começar
        • Crie uma instância através da consola
        • Agende a execução de um bloco de notas
      • Configure uma instância
        • Crie uma instância
        • Crie uma versão específica de uma instância
        • Crie uma instância com acesso às credenciais do utilizador
        • Crie uma instância com a computação confidencial
        • Adicione um ambiente conda
        • Encerramento por inatividade
        • Crie uma instância com um contentor personalizado
        • Crie uma instância com o Dataproc ativado
        • Crie uma instância com credenciais de terceiros
        • Faça a gestão de funcionalidades através de metadados
        • Use reservas
      • Associe ao separador de dados
        • Consultar dados no BigQuery a partir do JupyterLab
        • Aceda a contentores e ficheiros do Cloud Storage no JupyterLab
      • Explore e visualize dados
        • Explore e visualize dados no BigQuery
      • Manter
        • Faça a gestão do seu ambiente conda
        • Cópia de segurança e restauro
          • Guarde um bloco de notas no GitHub
          • Use um instantâneo
          • Use o Cloud Storage
        • Encerre uma instância
        • Atualize o ambiente de uma instância
        • Aceda ao JupyterLab através de SSH
        • Migre dados para uma nova instância
        • Altere o tipo de máquina e configure as GPUs
        • Aprovisione recursos com o Terraform
      • Monitor
        • Monitorize o estado de saúde
      • Controle o acesso
        • Controlo de acesso
        • Faça a gestão do acesso a uma instância
        • Faça a gestão do acesso à interface do JupyterLab de uma instância
        • Use chaves de encriptação geridas pelo cliente
        • Use uma instância num perímetro de serviço
      • Resolva problemas do Vertex AI Workbench
      • Notas de lançamento do Vertex AI Workbench
      • Blocos de notas geridos
        • Introdução aos notebooks geridos
        • Começar
          • Crie uma instância de notebooks geridos através da Cloud Console
          • Agende uma execução de notebooks geridos
        • Configure uma instância de notebooks geridos
          • Crie uma instância com um contentor personalizado
          • Execute uma instância de notebooks geridos num cluster do Dataproc
          • Use o Dataproc Serverless Spark com blocos de notas geridos
          • Encerramento por inatividade
          • Versões de notebooks geridos
        • Associe ao separador de dados
          • Consultar dados no BigQuery a partir do JupyterLab
          • Aceda a contentores e ficheiros do Cloud Storage no JupyterLab
        • Explore e visualize dados
          • Vista geral
          • Explore e visualize dados no BigQuery
        • Desenvolva um modelo
          • Programação de modelos numa instância de notebooks geridos
        • Implementação
          • Execute ficheiros de blocos de notas com o executor
          • Execute execuções de blocos de notas com parâmetros
        • Manter
          • Migre para uma instância do Vertex AI Workbench
          • Guarde um bloco de notas no GitHub
          • Altere o tipo de máquina e configure as GPUs de uma instância de blocos de notas geridos
          • Atualize o ambiente de uma instância de notebooks geridos
          • Migre dados para uma nova instância de blocos de notas geridos
        • Monitor
          • Registo de auditoria
        • Controle o acesso
          • Controlo de acesso
          • Faça a gestão do acesso a uma instância
          • Faça a gestão do acesso à interface do JupyterLab de uma instância
          • Use chaves de encriptação geridas pelo cliente
          • Configure uma rede
          • Use uma instância de notebooks gerida num perímetro de serviço
        • Resolva problemas com notebooks geridos
      • Notebooks geridos pelo utilizador
        • Introdução aos blocos de notas geridos pelo utilizador
        • Começar
          • Crie uma instância de notebooks geridos pelo utilizador através da Cloud Console
        • Configure uma instância de blocos de notas gerida pelo utilizador
          • Crie uma instância de notebooks geridos pelo utilizador
          • Crie uma versão específica de uma instância
          • Instale dependências
          • Escolha uma imagem da máquina virtual
          • Crie uma instância com um contentor personalizado
        • Explorar dados
          • Ciência de dados com R no Google Cloud: tutorial de análise exploratória de dados
        • Monitor
          • Monitorize o estado de saúde
          • Registo de auditoria
        • Controle o acesso
          • Controlo de acesso
          • Faça a gestão do acesso a uma instância
          • Faça a gestão do acesso à interface do JupyterLab de uma instância
          • Chaves de encriptação geridas do cliente
          • Use uma instância de notebooks gerida pelo utilizador num perímetro de serviço
          • Use uma máquina virtual protegida com blocos de notas geridos pelo utilizador
          • Tutorial: crie uma instância de notebooks numa rede de VPC
        • Manter
          • Migre para uma instância do Vertex AI Workbench
          • Guarde um bloco de notas no GitHub
          • Faça uma cópia de segurança dos seus dados através de uma captura instantânea
          • Encerre uma instância de notebooks geridos pelo utilizador
          • Altere o tipo de máquina e configure as GPUs de uma instância de blocos de notas gerida pelo utilizador
          • Atualize o ambiente de uma instância de notebooks geridos pelo utilizador
          • Migre dados para uma nova instância de blocos de notas geridos pelo utilizador
          • Registe uma instância antiga com a API Notebooks
          • Aceda ao JupyterLab através de SSH
        • Resolva problemas de notebooks geridos pelo utilizador
  • Apoio técnico do Terraform para o Vertex AI
  • Desenvolvimento de modelos de IA preditiva
  • Vista geral
  • Programação de modelos do AutoML
    • Vista geral da preparação do AutoML
    • Dados da imagem
      • Classificação
        • Prepare os dados
        • Crie um conjunto de dados
        • Prepare o modelo
        • Avalie o modelo
        • Obtenha previsões
        • Interprete os resultados
      • Deteção de objetos
        • Prepare os dados
        • Crie um conjunto de dados
        • Prepare o modelo
        • Avalie o modelo
        • Obtenha previsões
        • Interprete os resultados
      • Codifique os dados de imagens com Base64
      • Exporte um modelo do AutoML Edge
    • Dados tabulares
      • Vista geral
      • Introdução aos dados tabulares
      • Fluxos de trabalho tabulares
        • Vista geral
        • Engenharia de funcionalidades
        • AutoML completo
          • Vista geral
          • Prepare um modelo
          • Obtenha inferências online
          • Obtenha inferências em lote
        • TabNet
          • Vista geral
          • Prepare um modelo
          • Obtenha inferências online
          • Obtenha inferências em lote
        • Amplo e profundo
          • Vista geral
          • Prepare um modelo
          • Obtenha inferências online
          • Obtenha inferências em lote
        • Previsão
          • Vista geral
          • Prepare um modelo
          • Obtenha inferências online
          • Obtenha inferências em lote
        • Preço
        • Contas de serviço
        • Faça a gestão de quotas
      • Realize a classificação e a regressão com o AutoML
        • Vista geral
        • Início rápido: classificação do AutoML (Cloud Console)
        • Organize os dados de preparação
        • Crie um conjunto de dados
        • Prepare um modelo
        • Avalie o modelo
        • Veja a arquitetura do modelo
        • Obtenha inferências online
        • Obtenha inferências em lote
        • Exporte o modelo
      • Faça previsões com o AutoML
        • Vista geral
        • Organize os dados de preparação
        • Crie um conjunto de dados
        • Prepare um modelo
        • Avalie o modelo
        • Obtenha inferências
        • Previsão hierárquica
      • Faça previsões com o ARIMA+
      • Faça previsões com o Prophet
      • Faça a conciliação de entidades
      • Atribuições de funcionalidades para classificação e regressão
      • Atribuições de funcionalidades para previsões
      • Tipos de dados e transformações para dados tabulares do AutoML
      • Parâmetros de preparação para previsão
      • Divisões de dados para dados tabulares
      • Práticas recomendadas para criar dados de preparação tabulares
      • Previsão com as estatísticas de séries temporais
    • Prepare um modelo do AutoML Edge
      • Usar a consola
      • Usar a API
    • AutoML Text
      • Migre do AutoML Text para o Gemini
      • Gemini para utilizadores de texto do AutoML
  • Formação personalizada
    • Vista geral da formação personalizada
    • Carregue e prepare dados
      • Vista geral da preparação de dados
      • Use o Cloud Storage como um sistema de ficheiros montado
      • Monte uma partilha NFS para a formação personalizada
      • Use conjuntos de dados geridos
    • Preparação personalizada do Vertex AI
      • Vista geral da preparação personalizada no Vertex AI
      • Prepare a aplicação de preparação
        • Compreenda o serviço de preparação personalizada
        • Prepare o código de preparação
        • Use contentores pré-criados
          • Crie uma aplicação de preparação Python para um contentor pré-criado
          • Contentores pré-criados para preparação personalizada
        • Use contentores personalizados
          • Contentores personalizados para preparação
          • Crie um contentor personalizado
          • Coloque em contentores e execute código de preparação localmente
        • Use imagens de VMs e contentores de aprendizagem avançada
      • Faça a preparação num recurso persistente
        • Visão geral
        • Crie um recurso persistente
        • Execute tarefas de preparação num recurso persistente
        • Obtenha informações persistentes sobre recursos
        • Reinicie um recurso persistente
        • Elimine um recurso persistente
      • Configure a tarefa de preparação
        • Escolha um método de preparação personalizado
        • Configure as definições do contentor para a preparação
        • Configure recursos de computação para a preparação
        • Use reservas com formação
        • Use VMs do Spot com a preparação
      • Envie tarefa de preparação
        • Crie tarefas personalizadas
        • Aperfeiçoamento de hiperparâmetros
          • Vista geral do aperfeiçoamento de hiperparâmetros
          • Use o aperfeiçoamento de hiperparâmetros
        • Crie pipelines de preparação
        • Agende tarefas com base na disponibilidade de recursos
        • Use a preparação distribuída
        • Formação com VMs do Cloud TPU
        • Use o IP privado para a preparação personalizada
        • Use a interface do Private Service Connect para a preparação (recomendado)
      • Realize a pesquisa de arquitetura neural
        • Vista geral
        • Configure o ambiente
        • Tutoriais para principiantes
        • Práticas recomendadas e fluxo de trabalho
        • Design de tarefas de proxy
        • Otimize a velocidade de preparação para o PyTorch
        • Use contentores de preparação pré-criados e espaços de pesquisa
      • Monitorize e depure
        • Monitorize e depure a preparação através de um shell interativo
        • Analise o desempenho da preparação do modelo de perfil
      • Otimize com o Vertex AI Vizier
        • Vista geral do Vertex AI Vizier
        • Crie estudos do Vertex AI Vizier
        • Tutoriais de blocos de notas do Vertex AI Vizier
      • Obtenha inferências
      • Tutorial: crie um pipeline para formação contínua
      • Crie restrições de políticas da organização personalizadas
    • Ray no Vertex AI
      • Vista geral do Ray no Vertex AI
      • Configuração do Ray no Vertex AI
      • Crie um cluster do Ray na Vertex AI
      • Monitorize clusters do Ray no Vertex AI
      • Dimensione um cluster do Ray no Vertex AI
      • Desenvolva uma aplicação Ray no Vertex AI
      • Execute o Spark no cluster do Ray no Vertex AI
      • Use o Ray no Vertex AI com o BigQuery
      • Implemente um modelo e obtenha inferências
      • Elimine um cluster do Ray
      • Tutoriais do Ray no Vertex AI Notebook
  • Desenvolvimento de modelos de IA generativa
  • Vista geral
  • Crie e faça a gestão de conjuntos de dados
  • Vista geral
  • Divisões de dados para modelos do AutoML
  • Crie um conjunto de anotações
  • Elimine um conjunto de anotações
  • Adicione etiquetas (consola)
  • Exporte metadados e anotações de um conjunto de dados
  • Faça a gestão das versões do conjunto de dados
  • Use o Data Catalog para pesquisar recursos de modelos e conjuntos de dados
  • Obtenha inferências
  • Vista geral
  • Configure modelos para inferência
    • Exporte artefactos do modelo para inferência
    • Contentores pré-criados para inferência
    • Requisitos de contentores personalizados para inferência
    • Use um contentor personalizado para a inferência
    • Use rotas personalizadas arbitrárias
    • Use o tempo de execução do TensorFlow otimizado
    • Publique inferências com o NVIDIA Triton
    • Rotinas de inferência personalizadas
  • Obtenha inferências online
    • Crie um ponto final
      • Escolha um tipo de ponto final
      • Crie um ponto final público
      • Use pontos finais públicos dedicados (recomendado)
      • Use pontos finais privados dedicados baseados no Private Service Connect (recomendado)
      • Use pontos finais de acesso a serviços privados
    • Implemente um modelo num ponto final
      • Vista geral da implementação de modelos
      • Recursos de computação para inferência
      • Implemente um modelo através da Google Cloud Console
      • Implemente um modelo através da CLI gcloud ou da API Vertex AI
      • Use uma implementação contínua para substituir um modelo implementado
      • Anule a implementação de um modelo e elimine o ponto final
      • Use Cloud TPUs para inferência online
      • Use reservas com inferência online
      • Use VMs de início flexível com inferência
      • Use VMs do Spot com inferência
    • Obtenha uma inferência online
    • Veja métricas de inferência online
      • Veja as métricas dos pontos finais
      • Veja métricas do DCGM
    • Partilhe recursos entre implementações
    • Use o registo de inferência online
  • Obtenha inferências em lote
    • Obtenha inferências em lote a partir de um modelo personalizado
    • Use reservas com inferência em lote
    • Obtenha a previsão em lote a partir de um modelo do Model Garden implementado autonomamente
  • Publique modelos de IA generativa
    • Implemente modelos de IA generativa
    • Publique modelos abertos Gemma usando as Cloud TPUs com o Saxml
    • Publique modelos abertos Llama 3 com TPUs na nuvem multi-anfitrião com o Saxml
    • Publique um modelo DeepSeek-V3 através da implementação de GPUs com vários anfitriões
  • Políticas da organização personalizadas
  • Tutoriais de blocos de notas de inferência da Vertex AI
  • Realize pesquisas de semelhanças vetoriais
  • Vista geral do Vector Search
  • Experimentar
  • Começar
    • Início rápido do Vector Search
    • Antes de começar
    • Tutoriais do bloco de notas
  • Acerca da pesquisa híbrida
  • Crie e faça a gestão do índice
    • Formato e estrutura dos dados de entrada
    • Crie e faça a gestão do seu índice
    • Índices otimizados para armazenamento
    • Parâmetros de configuração do índice
    • Atualize e recrie o índice
    • Filtre correspondências vetoriais
    • Importe dados de índice do BigQuery
    • Incorporações com metadados
  • Implemente e consulte um índice
    • Private Service Connect (recomendado)
      • Configure a pesquisa vetorial com o Private Service Connect
      • Consulta
      • Autenticação de Símbolo da Web JSON
    • Ponto final público
      • Implementação
      • Consulta
    • Acesso a serviços privados
      • Configure uma ligação de intercâmbio da rede da VPC
      • Implementação
      • Consulta
      • Autenticação de Símbolo da Web JSON
  • Monitorize um índice implementado
  • Use políticas da organização personalizadas
  • Obter apoio técnico
  • Operações de aprendizagem automática (MLOps)
  • Faça a gestão de funcionalidades
    • Gestão de funcionalidades no Vertex AI
    • Vertex AI Feature Store
      • Acerca do Vertex AI Feature Store
      • Configure funcionalidades
        • Prepare a origem de dados
        • Crie um grupo de funcionalidades
        • Crie uma funcionalidade
      • Configure a publicação online
        • Tipos de publicações online
        • Crie uma instância de loja online
        • Crie uma instância da vista de funcionalidades
      • Controle o acesso
        • Controle o acesso aos recursos
      • Sincronize a loja online
        • Inicie uma sincronização de dados
        • Apresentar operações de sincronização
        • Atualize funcionalidades numa vista de funcionalidades
      • Publicar funcionalidades
        • Apresente funcionalidades da loja online
        • Apresente valores de funcionalidades históricos
      • Monitor
        • Funcionalidades do monitor
      • Faça a gestão dos recursos de funcionalidades
        • Liste grupos de funcionalidades
        • Funcionalidades de listas
        • Atualize um grupo de funcionalidades
        • Atualize uma funcionalidade
        • Elimine um grupo de funcionalidades
        • Elimine um elemento
      • Faça a gestão dos recursos da loja online
        • Apresente lojas online
        • Visualizações de funcionalidades de listas
        • Atualize uma loja online
        • Atualize uma vista de funcionalidades
        • Elimine uma loja online
        • Elimine uma vista de recursos
      • Metadados de funcionalidades
        • Atualize etiquetas
      • Pesquisar recursos
        • Pesquisar recursos
        • Pesquise metadados de recursos no Data Catalog
      • Faça a gestão das incorporações
        • Pesquise através de incorporações
      • Tutoriais do bloco de notas
        • Notebooks de tutoriais do Vertex AI Feature Store
    • Vertex AI Feature Store (antigo)
      • Acerca do Vertex AI Feature Store (antigo)
      • Modelo de dados e recursos
      • Requisitos de dados de origem
      • Configuração
      • Práticas recomendadas
      • Use o Vertex AI Feature Store (antigo)
        • Faça a gestão de featurestores
        • Faça a gestão dos tipos de entidades
        • Faça a gestão e encontre funcionalidades
        • Importação em lote
        • Importação com streaming
        • Publicação online
        • Obtenha dados de preparação
        • Exporte valores de funcionalidades
        • Elimine valores de atributos
        • Monitorização
        • Controle o acesso aos recursos
  • Faça a gestão de modelos
    • Introdução ao Registo de modelos Vertex AI
    • Controlo de versões no Registo de modelos
    • Importe modelos para o Registo de modelos
    • Copie modelos no Registo de modelos
    • Elimine um modelo
    • Integre com o BigQuery ML
    • Use aliases de modelos
    • Use etiquetas de modelos
    • Use o Data Catalog para pesquisar recursos de modelos e conjuntos de dados
  • Avalie modelos
    • Avaliação de modelos no Vertex AI
    • Realize a avaliação de modelos no Vertex AI
    • Avaliação de modelos para equidade
      • Introdução à avaliação de modelos para equidade
      • Métricas de parcialidade dos dados para o Vertex AI
      • Métricas de parcialidade do modelo para o Vertex AI
    • Tutoriais de notebooks de avaliação de modelos
  • Orquestre fluxos de trabalho de AA com pipelines
    • Introdução
    • Interfaces
    • Configure o seu projeto
    • Crie uma conduta
    • Execute uma pipeline
    • Use modelos de pipeline
      • Crie, carregue e use um modelo de pipeline
      • Use um modelo pré-criado da galeria de modelos
    • Configure o seu pipeline
      • Configure a colocação em cache de execução
      • Configure a política de falhas
      • Configure novas tentativas para uma tarefa de pipeline
      • Especifique os tipos de máquinas para um passo do pipeline
      • Peça recursos de máquinas do Google Cloud com o Vertex AI Pipelines
      • Configure a interface do Private Service Connect (recomendado)
      • Configure Secrets com o Secret Manager
      • Configure uma execução de pipeline num recurso persistente
    • Agende e acione execuções de pipelines
      • Agende uma execução de pipeline com a API Scheduler
      • Acione uma execução de pipeline com o Pub/Sub
    • Cancele ou elimine execuções de pipelines
      • Cancele execuções de pipelines
      • Elimine execuções de pipelines
    • Volte a executar um pipeline
    • Monitorize a execução de pipelines
      • Veja as métricas do pipeline
      • Veja os registos de tarefas do pipeline
      • Encaminhe registos para um destino do Cloud Pub/Sub
      • Configure as notificações por email
    • Visualize os resultados
      • Visualize e analise os resultados do pipeline
      • Acompanhe a linhagem dos artefactos da pipeline
      • Produza HTML e Markdown
    • Etiquetagem de recursos pelos Vertex AI Pipelines
    • Compreenda os custos de execução do pipeline
    • Migre dos Kubeflow Pipelines para os Vertex AI Pipelines