Passa ai contenuti principali
Google Cloud
Documentazione Aree tecnologiche
  • AI e ML
  • Sviluppo di applicazioni
  • Hosting di applicazioni
  • Computing
  • Analisi dei dati e pipeline
  • Database
  • Distribuito, ibrido e multi-cloud
  • AI generativa
  • Soluzioni di settore
  • Networking
  • Osservabilità e monitoraggio
  • Sicurezza
  • Storage
Strumenti per più prodotti
  • Gestione di accessi e risorse
  • Gestione di costi e utilizzo
  • Google Cloud SDK, linguaggi, framework e strumenti
  • Infrastructure as Code (IaC)
  • Migrazione
Siti correlati
  • Home page di Google Cloud
  • Prova gratuita e livello gratuito
  • Architecture Center
  • Blog
  • Contatta il team di vendita
  • Developer Center di Google Cloud
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentazione di Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Assistenza Google Cloud
  • Canale YouTube di Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Accedi
  • Vertex AI
Guide Riferimento Esempi Assistenza Risorse
Contattaci Inizia gratuitamente
Google Cloud
  • Documentazione
    • Guide
    • Riferimento
    • Esempi
    • Assistenza
    • Risorse
  • Aree tecnologiche
    • Altro
  • Strumenti per più prodotti
    • Altro
  • Siti correlati
    • Altro
  • Console
  • Contattaci
  • Inizia gratuitamente
  • Scopri
  • Panoramica
  • Introduzione a Vertex AI
  • MLOps su Vertex AI
  • Interfacce per Vertex AI
  • Guide per principianti su Vertex AI
    • Addestramento di un modello AutoML
    • Addestra un modello personalizzato
    • Ottenere deduzioni da un modello personalizzato
    • Addestrare un modello utilizzando Vertex AI e l'SDK Python
      • Presentazione
      • Prerequisiti
      • Crea un notebook
      • Crea un set di dati
      • Crea uno script di addestramento
      • Addestra un modello
      • Effettuare un'inferenza
  • Framework ML integrati
    • PyTorch
    • TensorFlow
  • Vertex AI per gli utenti di BigQuery
  • Glossario
  • Per iniziare
  • Configurazione di un progetto e di un ambiente di sviluppo
  • Installare l'SDK Vertex AI Python
  • Scelta di un metodo di addestramento
  • Prova un tutorial
    • Panoramica dei tutorial
    • Tutorial su AutoML
      • Introduzione ai dati di immagine
        • Panoramica
        • Configurazione del progetto e dell'ambiente
        • Creazione di un set di dati e importazione di immagini
        • Addestra un modello di classificazione di immagini AutoML
        • Valutare e analizzare le prestazioni del modello
        • Deployment di un modello in un endpoint ed esecuzione di un'inferenza
        • Pulizia del progetto
      • Introduzione ai dati tabulari
        • Panoramica
        • Configurazione del progetto e dell'ambiente
        • Creazione di un set di dati e addestramento di un modello di classificazione AutoML
        • Esegui il deployment di un modello e richiedi un'inferenza
        • Pulizia del progetto
    • Tutorial sull'addestramento personalizzato
      • Addestramento di un modello tabulare personalizzato
      • Addestramento di un modello di classificazione delle immagini TensorFlow Keras
        • Panoramica
        • Configurazione del progetto e dell'ambiente
        • Addestramento di un modello di classificazione delle immagini personalizzato
        • Esecuzione di previsioni da un modello di classificazione delle immagini personalizzato
        • Pulizia del progetto
      • Ottimizzare un modello di classificazione delle immagini con dati personalizzati
    • Tutorial sui notebook di addestramento personalizzato
  • Utilizzare l'IA generativa e gli LLM
  • Informazioni sull'IA generativa
  • Utilizzare gli strumenti di sviluppo di Vertex AI
  • Panoramica degli strumenti di sviluppo
  • Utilizza l'SDK Vertex AI
    • Panoramica
    • Introduzione all'SDK Vertex AI per Python
    • Classi dell'SDK Vertex AI per Python
      • Panoramica delle classi dell'SDK Vertex AI
      • Classi di dati
      • Corsi di formazione
      • Classi di modelli
      • Classi di previsione
      • Classi di monitoraggio
  • Utilizzare Vertex AI nei notebook
    • Scelta di una soluzione di blocco note
    • Colab Enterprise
      • Guida rapida:crea un notebook utilizzando la console
      • Connettiti a un runtime
      • Gestire i runtime e i relativi modelli
        • Creare un modello di runtime
        • Creare un runtime
    • Vertex AI Workbench
      • Presentazione
      • Tutorial di Notebook
      • Per iniziare
        • Creare un'istanza utilizzando la console
        • Pianificare l'esecuzione di un notebook
      • Configura un'istanza
        • Crea un'istanza
        • Creazione di una versione specifica di un'istanza
        • Creare un'istanza con accesso alle credenziali utente
        • Creare un'istanza con Confidential Computing
        • Aggiungere un ambiente conda
        • Arresto per inattività
        • Creazione di un'istanza utilizzando un container personalizzato
        • Crea un'istanza abilitata per Dataproc
        • Creare un'istanza con credenziali di terze parti
        • Gestire le funzionalità tramite i metadati
        • Utilizzare le prenotazioni
      • Connessione ai dati
        • Esegui query sui dati in BigQuery da JupyterLab
        • Accedere ai file e ai bucket Cloud Storage in JupyterLab
      • Esplora e visualizza i dati
        • Esplorare e visualizzare i dati in BigQuery
      • Mantenere
        • Gestire l'ambiente conda
        • Backup e ripristino
          • Salvataggio di un blocco note in GitHub
          • Utilizzare uno snapshot
          • Utilizza Cloud Storage
        • Arresta un'istanza
        • Eseguire l'upgrade dell'ambiente di un'istanza
        • Accesso a JupyterLab tramite SSH
        • Esegui la migrazione dei dati a una nuova istanza
        • Modificare il tipo di macchina e configurare le GPU
        • Esegui il provisioning delle risorse utilizzando Terraform
      • Monitoraggio
        • Monitoraggio dello stato di integrità
      • Controllare l'accesso
        • Controllo dell'accesso
        • Gestire l'accesso a un'istanza
        • Gestire l'accesso all'interfaccia JupyterLab di un'istanza
        • Utilizzo delle chiavi di crittografia gestite dal cliente
        • Utilizzo di un'istanza all'interno di un perimetro di servizio
      • Risolvere i problemi di Vertex AI Workbench
      • Note di rilascio di Vertex AI Workbench
      • Notebook gestiti
        • Introduzione ai notebook gestiti
        • Per iniziare
          • Creare un'istanza di Notebook gestiti utilizzando la console Cloud
          • Pianificare un'esecuzione di notebook gestiti
        • Configurare un'istanza di notebook gestita
          • Creare un'istanza con un container personalizzato
          • Esecuzione di un'istanza di blocchi note gestiti su un cluster Dataproc
          • Utilizzare Dataproc Serverless Spark con i notebook gestiti
          • Arresto per inattività
          • Versioni dei notebook gestiti
        • Connessione ai dati
          • Esegui query sui dati in BigQuery da JupyterLab
          • Accedere ai file e ai bucket Cloud Storage in JupyterLab
        • Esplora e visualizza i dati
          • Panoramica
          • Esplorare e visualizzare i dati in BigQuery
        • Sviluppare un modello
          • Sviluppo del modello in un'istanza di notebook gestita
        • Esegui il deployment
          • Esegui i file del blocco note con l'eseguibile
          • Eseguire esecuzioni di notebook con parametri
        • Mantenere
          • Esegui la migrazione a un'istanza di Vertex AI Workbench
          • Salvataggio di un blocco note in GitHub
          • Modificare il tipo di macchina e configurare le GPU di un'istanza di blocchi note gestiti
          • Eseguire l'upgrade dell'ambiente di un'istanza di notebook gestita
          • Esegui la migrazione dei dati a una nuova istanza di notebook gestiti
        • Monitoraggio
          • Audit logging
        • Controllare l'accesso
          • Controllo dell'accesso
          • Gestire l'accesso a un'istanza
          • Gestire l'accesso all'interfaccia JupyterLab di un'istanza
          • Utilizzo delle chiavi di crittografia gestite dal cliente
          • Configurare una rete
          • Utilizzo di un'istanza di notebook gestita all'interno di un perimetro di servizio
        • Risolvere i problemi relativi ai blocchi note gestiti
      • Notebook gestiti dall'utente
        • Introduzione ai blocchi note gestiti dall'utente
        • Per iniziare
          • Creare un'istanza di notebook gestiti dall'utente utilizzando la console Cloud
        • Configurare un'istanza di notebook gestiti dall'utente
          • Creazione di un'istanza di notebook gestiti dall'utente
          • Creazione di una versione specifica di un'istanza
          • Installare le dipendenze
          • Scelta di un'immagine VM
          • Creare un'istanza con un container personalizzato
        • Esplora i dati
          • Data science con R su Google Cloud: tutorial esplorativo sull'analisi dei dati
        • Monitoraggio
          • Monitoraggio dello stato di integrità
          • Audit logging
        • Controllare l'accesso
          • Controllo dell'accesso
          • Gestire l'accesso a un'istanza
          • Gestire l'accesso all'interfaccia JupyterLab di un'istanza
          • Chiavi di crittografia gestite dal cliente
          • Utilizzo di un'istanza di blocchi note gestiti dall'utente all'interno di un perimetro di servizio
          • Utilizzo di una Shielded VM con blocchi note gestiti dall'utente
          • Tutorial: crea un'istanza di Notebooks in una rete VPC
        • Mantenere
          • Esegui la migrazione a un'istanza di Vertex AI Workbench
          • Salvataggio di un blocco note in GitHub
          • Esegui il backup dei dati utilizzando uno snapshot
          • Chiusura di un'istanza di blocchi note gestiti dall'utente
          • Modificare il tipo di macchina e configurare le GPU di un'istanza di notebook gestita dall'utente
          • Upgrade dell'ambiente di un'istanza di blocco note gestita dall'utente
          • Eseguire la migrazione dei dati a una nuova istanza di notebook gestiti dall'utente
          • Registrazione di un'istanza legacy con l'API Notebooks
          • Accesso a JupyterLab tramite SSH
        • Risolvere i problemi relativi ai blocchi note gestiti dall'utente
  • Supporto di Terraform per Vertex AI
  • Sviluppo di modelli di AI predittiva
  • Panoramica
  • Sviluppo di modelli AutoML
    • Panoramica dell'addestramento AutoML
    • Dati immagine
      • Classificazione
        • Preparazione dei dati
        • Crea set di dati
        • Addestra modello
        • Valuta il modello
        • Ricevi previsioni
        • Interpreta i risultati
      • Rilevamento di oggetti
        • Preparazione dei dati
        • Crea set di dati
        • Addestra modello
        • Valuta il modello
        • Ricevi previsioni
        • Interpreta i risultati
      • Codifica dei dati delle immagini con Base64
      • Esportazione di un modello AutoML Edge
    • Dati tabulari
      • Panoramica
      • Introduzione ai dati tabulari
      • Tabular Workflows
        • Panoramica
        • Feature engineering
        • AutoML end-to-end
          • Panoramica
          • Addestra un modello
          • Ottenere inferenze online
          • Ottenere inferenze batch
        • TabNet
          • Panoramica
          • Addestra un modello
          • Ottenere inferenze online
          • Ottenere inferenze batch
        • Ampio e profondo
          • Panoramica
          • Addestra un modello
          • Ottenere inferenze online
          • Ottenere inferenze batch
        • Previsione
          • Panoramica
          • Addestra un modello
          • Ottenere inferenze online
          • Ottenere inferenze batch
        • Prezzi
        • Service account
        • Gestisci quote
      • Esegui la classificazione e la regressione con AutoML
        • Panoramica
        • Guida rapida: classificazione AutoML (console Cloud)
        • Preparare i dati di addestramento
        • Crea un set di dati
        • Addestra un modello
        • Valuta il modello
        • Visualizza l'architettura del modello
        • Ottenere inferenze online
        • Ottenere inferenze batch
        • Esporta modello
      • Eseguire la previsione con AutoML
        • Panoramica
        • Preparare i dati di addestramento
        • Crea un set di dati
        • Addestra un modello
        • Valuta il modello
        • Ottieni deduzioni
        • Previsione gerarchica
      • Eseguire la previsione con ARIMA+
      • Eseguire la previsione con Prophet
      • Esegui la riconciliazione delle entità
      • Attribuzione delle caratteristiche per la classificazione e la regressione
      • Attribuzioni delle caratteristiche per le previsioni
      • Tipi di dati e trasformazioni per dati AutoML tabulari
      • Parametri di addestramento per le previsioni
      • Suddivisioni dei dati per i dati tabulari
      • Best practice per la creazione di dati di addestramento tabulari
      • Previsione con Timeseries Insights
    • Addestramento di un modello AutoML Edge
      • Utilizzo della console
      • Utilizzo dell'API
    • Dati di testo AutoML
      • Eseguire la migrazione dal testo AutoML a Gemini
      • Utenti di Gemini per il testo AutoML
  • Addestramento personalizzato
    • Panoramica dell'addestramento personalizzato
    • Carica e prepara i dati
      • Panoramica della preparazione dei dati
      • Utilizzare Cloud Storage come file system montato
      • Montare una condivisione NFS per l'addestramento personalizzato
      • Utilizzo di set di dati gestiti
    • Addestramento personalizzato di Vertex AI
      • Panoramica dell'addestramento personalizzato in Vertex AI
      • Prepara l'applicazione di addestramento
        • Informazioni sul servizio di addestramento personalizzato
        • Prepara il codice di addestramento
        • Utilizzare i container predefiniti
          • Crea un'applicazione di addestramento Python per un container predefinito
          • Container predefiniti per l'addestramento personalizzato
        • Utilizzo di container personalizzati
          • Container personalizzati per l'addestramento
          • Creazione di un container personalizzato
          • Containerizzazione ed esecuzione del codice di addestramento a livello locale
        • Utilizzare le immagini e i container di Deep Learning VM
      • Addestramento su una risorsa permanente
        • Panoramica
        • Crea una risorsa permanente
        • Esegui job di addestramento su una risorsa permanente
        • Visualizzare le informazioni sulle risorse permanenti
        • Riavviare una risorsa permanente
        • Eliminare una risorsa permanente
      • Configura il job di addestramento
        • Scelta di un metodo di addestramento personalizzato
        • Configurazione delle impostazioni dei container per l'addestramento
        • Configurazione delle risorse di calcolo per l'addestramento
        • Utilizzare le prenotazioni con la formazione
        • Utilizzare le VM spot con l'addestramento
      • Invia il job di addestramento
        • Creazione job personalizzati
        • Ottimizzazione di iperparametri
          • Panoramica dell'ottimizzazione degli iperparametri
          • Utilizzo dell'ottimizzazione degli iperparametri
        • Creazione pipeline di addestramento
        • Pianificare i job in base alla disponibilità delle risorse
        • Utilizzo dell'addestramento distribuito
        • Addestramento con VM Cloud TPU
        • Utilizzo dell'IP privato per l'addestramento personalizzato
        • Utilizzare l'interfaccia Private Service Connect per l'addestramento (consigliato)
      • Eseguire la ricerca di architetture neurali
        • Panoramica
        • Configura l'ambiente
        • Tutorial per principianti
        • Best practice e flusso di lavoro
        • Progettazione dell'attività proxy
        • Ottimizzare la velocità di addestramento per PyTorch
        • Utilizzare spazi di ricerca e container di addestramento predefiniti
      • Monitoraggio e debug
        • Monitoraggio e debug dell'addestramento con una shell interattiva
        • Profila le prestazioni dell'addestramento del modello
      • Ottimizzazione con Vertex AI Vizier
        • Panoramica di Vertex AI Vizier
        • Creazione di studi Vertex AI Vizier
        • Tutorial sui notebook di Vertex AI Vizier
      • Ottieni deduzioni
      • Tutorial: crea una pipeline per l'addestramento continuo
      • Creare vincoli personalizzati dei criteri dell'organizzazione
    • Ray on Vertex AI
      • Panoramica di Ray su Vertex AI
      • Configurazione per Ray su Vertex AI
      • Creare un cluster Ray su Vertex AI
      • Monitorare i cluster Ray su Vertex AI
      • Eseguire la scalabilità di un cluster Ray su Vertex AI
      • Sviluppare un'applicazione Ray su Vertex AI
      • Esegui Spark su un cluster Ray su Vertex AI
      • Utilizzare Ray su Vertex AI con BigQuery
      • Esegui il deployment di un modello e ottieni inferenze
      • Eliminare un cluster Ray
      • Tutorial sui blocchi note di Ray on Vertex AI
  • Sviluppo di modelli di AI generativa
  • Panoramica
  • Creazione e gestione dei set di dati
  • Panoramica
  • Suddivisioni dei dati per i modelli AutoML
  • Creazione di un set di annotazioni
  • Eliminazione di un set di annotazioni
  • Aggiungere etichette (console)
  • Esportazione di metadati e annotazioni da un set di dati
  • Gestire le versioni dei set di dati
  • Utilizzare Data Catalog per cercare risorse di modelli e set di dati
  • Ottieni deduzioni
  • Panoramica
  • Configurare i modelli per l'inferenza
    • Esportare gli artefatti del modello per l'inferenza
    • Container predefiniti per l'inferenza
    • Requisiti dei container personalizzati per l'inferenza
    • Utilizzare un container personalizzato per l'inferenza
    • Utilizzare route personalizzate arbitrarie
    • Utilizza il runtime TensorFlow ottimizzato
    • Esegui inferenze con NVIDIA Triton
    • Routine di inferenza personalizzate
  • Ottenere inferenze online
    • Crea un endpoint
      • Scegli un tipo di endpoint
      • Creare un endpoint pubblico
      • Utilizza endpoint pubblici dedicati (opzione consigliata)
      • Utilizza endpoint privati dedicati basati su Private Service Connect (opzione consigliata)
      • Utilizzare gli endpoint di accesso privato ai servizi
    • Eseguire il deployment di un modello in un endpoint
      • Panoramica del deployment dei modelli
      • Risorse di calcolo per l'inferenza
      • Esegui il deployment di un modello utilizzando la console Google Cloud
      • Esegui il deployment di un modello utilizzando l'interfaccia a riga di comando gcloud o l'API Vertex AI
      • Utilizzare un deployment incrementale per sostituire un modello di cui è stato eseguito il deployment
      • Annullare il deployment di un modello ed eliminare l'endpoint
      • Utilizzare le Cloud TPU per l'inferenza online
      • Utilizzare le prenotazioni con l'inferenza online
      • Utilizzare le VM con avvio flessibile con l'inferenza
      • Utilizzare le VM spot con l'inferenza
    • Ottenere un'inferenza online
    • Visualizzare le metriche di inferenza online
      • Visualizzare le metriche degli endpoint
      • Visualizzare le metriche DCGM
    • Condividere le risorse tra i deployment
    • Utilizzare il logging dell'inferenza online
  • Ottenere inferenze batch
    • Ottenere inferenze batch da un modello personalizzato
    • Utilizzare le prenotazioni con l'inferenza batch
    • Ottenere una previsione batch da un modello Model Garden di cui è stato eseguito il deployment autonomo
  • Pubblicare modelli di AI generativa
    • Esegui il deployment di modelli di AI generativa
    • Pubblicare i modelli aperti di Gemma utilizzando le Cloud TPU con Saxml
    • Pubblica modelli aperti Llama 3 utilizzando TPU Cloud multi-host con Saxml
    • Gestisci un modello DeepSeek-V3 utilizzando il deployment di GPU multi-host
  • Criteri dell'organizzazione personalizzati
  • Tutorial sui notebook di inferenza Vertex AI
  • Eseguire ricerche sulla similarità vettoriale
  • Panoramica di Vector Search
  • Prova
  • Per iniziare
    • Guida rapida di Ricerca vettoriale
    • Prima di iniziare
    • Tutorial di Notebook
  • Informazioni sulla ricerca ibrida
  • Creare e gestire l'indice
    • Formato e struttura dei dati di input
    • Creare e gestire l'indice
    • Indici ottimizzati per l'archiviazione
    • Parametri di configurazione degli indici
    • Aggiorna e ricrea indice
    • Filtrare le corrispondenze vettoriali
    • Importare i dati dell'indice da BigQuery
    • Incorporamenti con metadati
  • Esegui il deployment di un indice ed esegui query
    • Private Service Connect (consigliato)
      • Configurare la ricerca di vettori con Private Service Connect
      • Query
      • Autenticazione con token web JSON
    • Endpoint pubblico
      • Esegui il deployment
      • Query
    • Accesso privato ai servizi
      • Configurare una connessione di peering di rete VPC
      • Esegui il deployment
      • Query
      • Autenticazione con token web JSON
  • Monitorare un indice di cui è stato eseguito il deployment
  • Utilizzare i criteri dell'organizzazione personalizzati
  • Assistenza
  • Operazioni di machine learning (MLOps)
  • Gestisci funzionalità
    • Gestione delle funzionalità in Vertex AI
    • Vertex AI Feature Store
      • Informazioni su Vertex AI Feature Store
      • Configurare le funzionalità
        • Prepara l'origine dati
        • Creare un gruppo di funzionalità
        • Creare una funzionalità
      • Configurare la pubblicazione online
        • Tipi di pubblicazione online
        • Creare un'istanza del negozio online
        • Crea un'istanza di visualizzazione caratteristiche
      • Controllare l'accesso
        • Controllare l'accesso alle risorse
      • Sincronizzare il negozio online
        • Avviare una sincronizzazione dei dati
        • Elenca operazioni di sincronizzazione
        • Aggiornare le funzionalità in una visualizzazione delle caratteristiche
      • Pubblicare funzionalità
        • Pubblicare funzionalità dal negozio online
        • Pubblicare i valori storici delle funzionalità
      • Monitoraggio
        • Monitorare le funzionalità
      • Gestire le risorse delle funzionalità
        • Elenco dei gruppi di funzionalità
        • Elenco funzionalità
        • Aggiornare un gruppo di funzionalità
        • Aggiornare una funzionalità
        • Eliminare un gruppo di funzionalità
        • Eliminare un elemento
      • Gestire le risorse del negozio online
        • Elenco di negozi online
        • Visualizzazioni delle caratteristiche dell'elenco
        • Aggiornare un negozio online
        • Aggiornare una visualizzazione delle caratteristiche
        • Eliminare un negozio online
        • Eliminare una visualizzazione delle caratteristiche
      • Metadati delle funzionalità
        • Aggiorna etichette
      • Cerca risorse
        • Cerca risorse
        • Cercare i metadati delle risorse in Data Catalog
      • Gestire gli incorporamenti
        • Ricerca utilizzando gli embedding
      • Tutorial di Notebook
        • Blocchi note tutorial di Vertex AI Feature Store
    • Feature Store Vertex AI (legacy)
      • Informazioni su Vertex AI Feature Store (legacy)
      • Modello dei dati e risorse
      • Requisiti dei dati di origine
      • Configurazione
      • Best practice
      • Utilizzare Vertex AI Feature Store (legacy)
        • Gestione dei featurestore
        • Gestione dei tipi di entità
        • Gestione e ricerca di caratteristiche
        • Importazione collettiva
        • Importazione di flussi di dati
        • Pubblicazione online
        • Recupero dei dati di addestramento
        • Esportazione dei valori delle caratteristiche
        • Eliminare i valori delle caratteristiche
        • Monitoraggio
        • Controllare l'accesso alle risorse
  • Gestione modelli
    • Introduzione a Vertex AI Model Registry
    • Controllo delle versioni in Model Registry
    • Importare i modelli in Model Registry
    • Copiare i modelli in Model Registry
    • Eliminazione di un modello
    • Integrazione con BigQuery ML
    • Utilizzare gli alias dei modelli
    • Utilizzare le etichette del modello
    • Utilizzare Data Catalog per cercare risorse di modelli e set di dati
  • Valutare i modelli
    • Valutazione dei modelli in Vertex AI
    • Esecuzione della valutazione dei modelli in Vertex AI
    • Valutazione del modello per l'equità
      • Introduzione alla valutazione del modello per l'equità
      • Metriche relative al bias dei dati per Vertex AI
      • Metriche di bias del modello per Vertex AI
    • Tutorial sui notebook di valutazione del modello
  • Orchestrare i flussi di lavoro di ML utilizzando le pipeline
    • Presentazione
    • Interfacce
    • Configura il tuo progetto
    • Crea una pipeline
    • Esegui una pipeline
    • Utilizzare i modelli di pipeline
      • Creare, caricare e utilizzare un modello di pipeline
      • Utilizzare un modello predefinito dalla galleria dei modelli
    • Configurazione della pipeline
      • Configurazione della memorizzazione nella cache di un'esecuzione
      • Configura il criterio di errore
      • Configurare i tentativi di ripetizione per un'attività della pipeline
      • Specifica dei tipi di macchina per un passaggio della pipeline
      • Richiedere risorse di macchine Google Cloud con Vertex AI Pipelines
      • Configura l'interfaccia Private Service Connect (consigliato)
      • Configurazione dei secret con Secret Manager
      • Configurare l'esecuzione di una pipeline su una risorsa permanente
    • Pianificazione e attivazione dell'esecuzione di pipeline
      • Pianificare l'esecuzione di una pipeline con l'API Scheduler
      • Attivazione dell'esecuzione di una pipeline con Pub/Sub
    • Annullare o eliminare le esecuzioni pipeline
      • Annulla esecuzioni pipeline
      • Elimina esecuzioni pipeline
    • Esegui di nuovo una pipeline
    • Monitora l'esecuzione della pipeline
      • Visualizza le metriche della pipeline
      • Visualizza i log dei job della pipeline
      • Inoltra i log a una destinazione Cloud Pub/Sub
      • Configurazione delle notifiche via email
    • Visualizzare i risultati
      • Visualizzazione e analisi dei risultati delle pipeline
      • Monitoraggio della derivazione degli artefatti della pipeline
      • File HTML e markdown di output
    • Tagging delle risorse da parte di Vertex AI Pipelines
    • Informazioni sui costi di esecuzione della pipeline
    • Migrazione da Kubeflow Pipelines a Vertex AI Pipelines
    • Utilizzare vincoli personalizzati
    • Google Cloud Pipeline Components
      • Guida rapida
      • Introduzione a Google Cloud Pipeline Components
      • Elenco di Google Cloud Pipeline Components
      • Utilizzare Google Cloud Pipeline Components
      • Crea i tuoi componenti della pipeline
    • Tutorial su Vertex AI Pipelines
      • Notebook tutorial
  • Monitoraggio e analisi dei metadati ML
    • Introduzione a Vertex ML Metadata
    • Modello dei dati e risorse
    • Configurazione dell'archivio dei metadati del progetto
    • Utilizzo di Vertex ML Metadata
      • Monitorare Vertex ML Metadata
      • Analizza i metadati Vertex ML
      • Gestire Vertex ML Metadata
      • Schemi di sistema
      • Creazione e utilizzo di schemi personalizzati
      • Utilizzare vincoli personalizzati con gli archivi di metadati
    • Tutorial sui notebook Vertex ML Metadata
  • Comprendere il comportamento del modello
    • Introduzione a Explainable AI
    • Configurare le spiegazioni basate su esempi per l'addestramento personalizzato
    • Configurare le spiegazioni basate su caratteristiche per l'addestramento personalizzato
      • Configurazione delle spiegazioni
      • Configurazione delle impostazioni di visualizzazione
      • Miglioramento delle spiegazioni
    • Configurare le spiegazioni basate sulle funzionalità per la classificazione delle immagini AutoML
      • Configurazione delle impostazioni di visualizzazione
      • Miglioramento delle spiegazioni
    • Utilizzare TensorFlow per le spiegazioni
    • Richiesta di spiegazioni
    • Limitazioni di Explainable AI
    • Tutorial sui notebook Explainable AI
  • Monitorare la qualità del modello
    • Introduzione a Model Monitoring
    • Model Monitoring v2