Passa ai contenuti principali
Documentazione
Aree tecnologiche
close
AI e ML
Sviluppo di applicazioni
Hosting di applicazioni
Computing
Analisi dei dati e pipeline
Database
Distribuito, ibrido e multi-cloud
AI generativa
Soluzioni di settore
Networking
Osservabilità e monitoraggio
Sicurezza
Storage
Strumenti per più prodotti
close
Gestione di accessi e risorse
Gestione di costi e utilizzo
Google Cloud SDK, linguaggi, framework e strumenti
Infrastructure as Code (IaC)
Migrazione
Siti correlati
close
Home page di Google Cloud
Prova gratuita e livello gratuito
Architecture Center
Blog
Contatta il team di vendita
Developer Center di Google Cloud
Google Developer Center
Google Cloud Marketplace
Documentazione di Google Cloud Marketplace
Google Cloud Skills Boost
Google Cloud Solution Center
Assistenza Google Cloud
Canale YouTube di Google Cloud Tech
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Accedi
Vertex AI
Guide
Riferimento
Esempi
Assistenza
Risorse
Contattaci
Inizia gratuitamente
Documentazione
Guide
Riferimento
Esempi
Assistenza
Risorse
Aree tecnologiche
Altro
Strumenti per più prodotti
Altro
Siti correlati
Altro
Console
Contattaci
Inizia gratuitamente
Scopri
Panoramica
Introduzione a Vertex AI
MLOps su Vertex AI
Interfacce per Vertex AI
Guide per principianti su Vertex AI
Addestramento di un modello AutoML
Addestra un modello personalizzato
Ottenere deduzioni da un modello personalizzato
Addestrare un modello utilizzando Vertex AI e l'SDK Python
Presentazione
Prerequisiti
Crea un notebook
Crea un set di dati
Crea uno script di addestramento
Addestra un modello
Effettuare un'inferenza
Framework ML integrati
PyTorch
TensorFlow
Vertex AI per gli utenti di BigQuery
Glossario
Per iniziare
Configurazione di un progetto e di un ambiente di sviluppo
Installare l'SDK Vertex AI Python
Scelta di un metodo di addestramento
Prova un tutorial
Panoramica dei tutorial
Tutorial su AutoML
Introduzione ai dati di immagine
Panoramica
Configurazione del progetto e dell'ambiente
Creazione di un set di dati e importazione di immagini
Addestra un modello di classificazione di immagini AutoML
Valutare e analizzare le prestazioni del modello
Deployment di un modello in un endpoint ed esecuzione di un'inferenza
Pulizia del progetto
Introduzione ai dati tabulari
Panoramica
Configurazione del progetto e dell'ambiente
Creazione di un set di dati e addestramento di un modello di classificazione AutoML
Esegui il deployment di un modello e richiedi un'inferenza
Pulizia del progetto
Tutorial sull'addestramento personalizzato
Addestramento di un modello tabulare personalizzato
Addestramento di un modello di classificazione delle immagini TensorFlow Keras
Panoramica
Configurazione del progetto e dell'ambiente
Addestramento di un modello di classificazione delle immagini personalizzato
Esecuzione di previsioni da un modello di classificazione delle immagini personalizzato
Pulizia del progetto
Ottimizzare un modello di classificazione delle immagini con dati personalizzati
Tutorial sui notebook di addestramento personalizzato
Utilizzare l'IA generativa e gli LLM
Informazioni sull'IA generativa
Utilizzare gli strumenti di sviluppo di Vertex AI
Panoramica degli strumenti di sviluppo
Utilizza l'SDK Vertex AI
Panoramica
Introduzione all'SDK Vertex AI per Python
Classi dell'SDK Vertex AI per Python
Panoramica delle classi dell'SDK Vertex AI
Classi di dati
Corsi di formazione
Classi di modelli
Classi di previsione
Classi di monitoraggio
Utilizzare Vertex AI nei notebook
Scelta di una soluzione di blocco note
Colab Enterprise
Guida rapida:crea un notebook utilizzando la console
Connettiti a un runtime
Gestire i runtime e i relativi modelli
Creare un modello di runtime
Creare un runtime
Vertex AI Workbench
Presentazione
Tutorial di Notebook
Per iniziare
Creare un'istanza utilizzando la console
Pianificare l'esecuzione di un notebook
Configura un'istanza
Crea un'istanza
Creazione di una versione specifica di un'istanza
Creare un'istanza con accesso alle credenziali utente
Creare un'istanza con Confidential Computing
Aggiungere un ambiente conda
Arresto per inattività
Creazione di un'istanza utilizzando un container personalizzato
Crea un'istanza abilitata per Dataproc
Creare un'istanza con credenziali di terze parti
Gestire le funzionalità tramite i metadati
Utilizzare le prenotazioni
Connessione ai dati
Esegui query sui dati in BigQuery da JupyterLab
Accedere ai file e ai bucket Cloud Storage in JupyterLab
Esplora e visualizza i dati
Esplorare e visualizzare i dati in BigQuery
Mantenere
Gestire l'ambiente conda
Backup e ripristino
Salvataggio di un blocco note in GitHub
Utilizzare uno snapshot
Utilizza Cloud Storage
Arresta un'istanza
Eseguire l'upgrade dell'ambiente di un'istanza
Accesso a JupyterLab tramite SSH
Esegui la migrazione dei dati a una nuova istanza
Modificare il tipo di macchina e configurare le GPU
Esegui il provisioning delle risorse utilizzando Terraform
Monitoraggio
Monitoraggio dello stato di integrità
Controllare l'accesso
Controllo dell'accesso
Gestire l'accesso a un'istanza
Gestire l'accesso all'interfaccia JupyterLab di un'istanza
Utilizzo delle chiavi di crittografia gestite dal cliente
Utilizzo di un'istanza all'interno di un perimetro di servizio
Risolvere i problemi di Vertex AI Workbench
Note di rilascio di Vertex AI Workbench
Notebook gestiti
Introduzione ai notebook gestiti
Per iniziare
Creare un'istanza di Notebook gestiti utilizzando la console Cloud
Pianificare un'esecuzione di notebook gestiti
Configurare un'istanza di notebook gestita
Creare un'istanza con un container personalizzato
Esecuzione di un'istanza di blocchi note gestiti su un cluster Dataproc
Utilizzare Dataproc Serverless Spark con i notebook gestiti
Arresto per inattività
Versioni dei notebook gestiti
Connessione ai dati
Esegui query sui dati in BigQuery da JupyterLab
Accedere ai file e ai bucket Cloud Storage in JupyterLab
Esplora e visualizza i dati
Panoramica
Esplorare e visualizzare i dati in BigQuery
Sviluppare un modello
Sviluppo del modello in un'istanza di notebook gestita
Esegui il deployment
Esegui i file del blocco note con l'eseguibile
Eseguire esecuzioni di notebook con parametri
Mantenere
Esegui la migrazione a un'istanza di Vertex AI Workbench
Salvataggio di un blocco note in GitHub
Modificare il tipo di macchina e configurare le GPU di un'istanza di blocchi note gestiti
Eseguire l'upgrade dell'ambiente di un'istanza di notebook gestita
Esegui la migrazione dei dati a una nuova istanza di notebook gestiti
Monitoraggio
Audit logging
Controllare l'accesso
Controllo dell'accesso
Gestire l'accesso a un'istanza
Gestire l'accesso all'interfaccia JupyterLab di un'istanza
Utilizzo delle chiavi di crittografia gestite dal cliente
Configurare una rete
Utilizzo di un'istanza di notebook gestita all'interno di un perimetro di servizio
Risolvere i problemi relativi ai blocchi note gestiti
Notebook gestiti dall'utente
Introduzione ai blocchi note gestiti dall'utente
Per iniziare
Creare un'istanza di notebook gestiti dall'utente utilizzando la console Cloud
Configurare un'istanza di notebook gestiti dall'utente
Creazione di un'istanza di notebook gestiti dall'utente
Creazione di una versione specifica di un'istanza
Installare le dipendenze
Scelta di un'immagine VM
Creare un'istanza con un container personalizzato
Esplora i dati
Data science con R su Google Cloud: tutorial esplorativo sull'analisi dei dati
Monitoraggio
Monitoraggio dello stato di integrità
Audit logging
Controllare l'accesso
Controllo dell'accesso
Gestire l'accesso a un'istanza
Gestire l'accesso all'interfaccia JupyterLab di un'istanza
Chiavi di crittografia gestite dal cliente
Utilizzo di un'istanza di blocchi note gestiti dall'utente all'interno di un perimetro di servizio
Utilizzo di una Shielded VM con blocchi note gestiti dall'utente
Tutorial: crea un'istanza di Notebooks in una rete VPC
Mantenere
Esegui la migrazione a un'istanza di Vertex AI Workbench
Salvataggio di un blocco note in GitHub
Esegui il backup dei dati utilizzando uno snapshot
Chiusura di un'istanza di blocchi note gestiti dall'utente
Modificare il tipo di macchina e configurare le GPU di un'istanza di notebook gestita dall'utente
Upgrade dell'ambiente di un'istanza di blocco note gestita dall'utente
Eseguire la migrazione dei dati a una nuova istanza di notebook gestiti dall'utente
Registrazione di un'istanza legacy con l'API Notebooks
Accesso a JupyterLab tramite SSH
Risolvere i problemi relativi ai blocchi note gestiti dall'utente
Supporto di Terraform per Vertex AI
Sviluppo di modelli di AI predittiva
Panoramica
Sviluppo di modelli AutoML
Panoramica dell'addestramento AutoML
Dati immagine
Classificazione
Preparazione dei dati
Crea set di dati
Addestra modello
Valuta il modello
Ricevi previsioni
Interpreta i risultati
Rilevamento di oggetti
Preparazione dei dati
Crea set di dati
Addestra modello
Valuta il modello
Ricevi previsioni
Interpreta i risultati
Codifica dei dati delle immagini con Base64
Esportazione di un modello AutoML Edge
Dati tabulari
Panoramica
Introduzione ai dati tabulari
Tabular Workflows
Panoramica
Feature engineering
AutoML end-to-end
Panoramica
Addestra un modello
Ottenere inferenze online
Ottenere inferenze batch
TabNet
Panoramica
Addestra un modello
Ottenere inferenze online
Ottenere inferenze batch
Ampio e profondo
Panoramica
Addestra un modello
Ottenere inferenze online
Ottenere inferenze batch
Previsione
Panoramica
Addestra un modello
Ottenere inferenze online
Ottenere inferenze batch
Prezzi
Service account
Gestisci quote
Esegui la classificazione e la regressione con AutoML
Panoramica
Guida rapida: classificazione AutoML (console Cloud)
Preparare i dati di addestramento
Crea un set di dati
Addestra un modello
Valuta il modello
Visualizza l'architettura del modello
Ottenere inferenze online
Ottenere inferenze batch
Esporta modello
Eseguire la previsione con AutoML
Panoramica
Preparare i dati di addestramento
Crea un set di dati
Addestra un modello
Valuta il modello
Ottieni deduzioni
Previsione gerarchica
Eseguire la previsione con ARIMA+
Eseguire la previsione con Prophet
Esegui la riconciliazione delle entità
Attribuzione delle caratteristiche per la classificazione e la regressione
Attribuzioni delle caratteristiche per le previsioni
Tipi di dati e trasformazioni per dati AutoML tabulari
Parametri di addestramento per le previsioni
Suddivisioni dei dati per i dati tabulari
Best practice per la creazione di dati di addestramento tabulari
Previsione con Timeseries Insights
Addestramento di un modello AutoML Edge
Utilizzo della console
Utilizzo dell'API
Dati di testo AutoML
Eseguire la migrazione dal testo AutoML a Gemini
Utenti di Gemini per il testo AutoML
Addestramento personalizzato
Panoramica dell'addestramento personalizzato
Carica e prepara i dati
Panoramica della preparazione dei dati
Utilizzare Cloud Storage come file system montato
Montare una condivisione NFS per l'addestramento personalizzato
Utilizzo di set di dati gestiti
Addestramento personalizzato di Vertex AI
Panoramica dell'addestramento personalizzato in Vertex AI
Prepara l'applicazione di addestramento
Informazioni sul servizio di addestramento personalizzato
Prepara il codice di addestramento
Utilizzare i container predefiniti
Crea un'applicazione di addestramento Python per un container predefinito
Container predefiniti per l'addestramento personalizzato
Utilizzo di container personalizzati
Container personalizzati per l'addestramento
Creazione di un container personalizzato
Containerizzazione ed esecuzione del codice di addestramento a livello locale
Utilizzare le immagini e i container di Deep Learning VM
Addestramento su una risorsa permanente
Panoramica
Crea una risorsa permanente
Esegui job di addestramento su una risorsa permanente
Visualizzare le informazioni sulle risorse permanenti
Riavviare una risorsa permanente
Eliminare una risorsa permanente
Configura il job di addestramento
Scelta di un metodo di addestramento personalizzato
Configurazione delle impostazioni dei container per l'addestramento
Configurazione delle risorse di calcolo per l'addestramento
Utilizzare le prenotazioni con la formazione
Utilizzare le VM spot con l'addestramento
Invia il job di addestramento
Creazione job personalizzati
Ottimizzazione di iperparametri
Panoramica dell'ottimizzazione degli iperparametri
Utilizzo dell'ottimizzazione degli iperparametri
Creazione pipeline di addestramento
Pianificare i job in base alla disponibilità delle risorse
Utilizzo dell'addestramento distribuito
Addestramento con VM Cloud TPU
Utilizzo dell'IP privato per l'addestramento personalizzato
Utilizzare l'interfaccia Private Service Connect per l'addestramento (consigliato)
Eseguire la ricerca di architetture neurali
Panoramica
Configura l'ambiente
Tutorial per principianti
Best practice e flusso di lavoro
Progettazione dell'attività proxy
Ottimizzare la velocità di addestramento per PyTorch
Utilizzare spazi di ricerca e container di addestramento predefiniti
Monitoraggio e debug
Monitoraggio e debug dell'addestramento con una shell interattiva
Profila le prestazioni dell'addestramento del modello
Ottimizzazione con Vertex AI Vizier
Panoramica di Vertex AI Vizier
Creazione di studi Vertex AI Vizier
Tutorial sui notebook di Vertex AI Vizier
Ottieni deduzioni
Tutorial: crea una pipeline per l'addestramento continuo
Creare vincoli personalizzati dei criteri dell'organizzazione
Ray on Vertex AI
Panoramica di Ray su Vertex AI
Configurazione per Ray su Vertex AI
Creare un cluster Ray su Vertex AI
Monitorare i cluster Ray su Vertex AI
Eseguire la scalabilità di un cluster Ray su Vertex AI
Sviluppare un'applicazione Ray su Vertex AI
Esegui Spark su un cluster Ray su Vertex AI
Utilizzare Ray su Vertex AI con BigQuery
Esegui il deployment di un modello e ottieni inferenze
Eliminare un cluster Ray
Tutorial sui blocchi note di Ray on Vertex AI
Sviluppo di modelli di AI generativa
Panoramica
Creazione e gestione dei set di dati
Panoramica
Suddivisioni dei dati per i modelli AutoML
Creazione di un set di annotazioni
Eliminazione di un set di annotazioni
Aggiungere etichette (console)
Esportazione di metadati e annotazioni da un set di dati
Gestire le versioni dei set di dati
Utilizzare Data Catalog per cercare risorse di modelli e set di dati
Ottieni deduzioni
Panoramica
Configurare i modelli per l'inferenza
Esportare gli artefatti del modello per l'inferenza
Container predefiniti per l'inferenza
Requisiti dei container personalizzati per l'inferenza
Utilizzare un container personalizzato per l'inferenza
Utilizzare route personalizzate arbitrarie
Utilizza il runtime TensorFlow ottimizzato
Esegui inferenze con NVIDIA Triton
Routine di inferenza personalizzate
Ottenere inferenze online
Crea un endpoint
Scegli un tipo di endpoint
Creare un endpoint pubblico
Utilizza endpoint pubblici dedicati (opzione consigliata)
Utilizza endpoint privati dedicati basati su Private Service Connect (opzione consigliata)
Utilizzare gli endpoint di accesso privato ai servizi
Eseguire il deployment di un modello in un endpoint
Panoramica del deployment dei modelli
Risorse di calcolo per l'inferenza
Esegui il deployment di un modello utilizzando la console Google Cloud
Esegui il deployment di un modello utilizzando l'interfaccia a riga di comando gcloud o l'API Vertex AI
Utilizzare un deployment incrementale per sostituire un modello di cui è stato eseguito il deployment
Annullare il deployment di un modello ed eliminare l'endpoint
Utilizzare le Cloud TPU per l'inferenza online
Utilizzare le prenotazioni con l'inferenza online
Utilizzare le VM con avvio flessibile con l'inferenza
Utilizzare le VM spot con l'inferenza
Ottenere un'inferenza online
Visualizzare le metriche di inferenza online
Visualizzare le metriche degli endpoint
Visualizzare le metriche DCGM
Condividere le risorse tra i deployment
Utilizzare il logging dell'inferenza online
Ottenere inferenze batch
Ottenere inferenze batch da un modello personalizzato
Utilizzare le prenotazioni con l'inferenza batch
Ottenere una previsione batch da un modello Model Garden di cui è stato eseguito il deployment autonomo
Pubblicare modelli di AI generativa
Esegui il deployment di modelli di AI generativa
Pubblicare i modelli aperti di Gemma utilizzando le Cloud TPU con Saxml
Pubblica modelli aperti Llama 3 utilizzando TPU Cloud multi-host con Saxml
Gestisci un modello DeepSeek-V3 utilizzando il deployment di GPU multi-host
Criteri dell'organizzazione personalizzati
Tutorial sui notebook di inferenza Vertex AI
Eseguire ricerche sulla similarità vettoriale
Panoramica di Vector Search
Prova
Per iniziare
Guida rapida di Ricerca vettoriale
Prima di iniziare
Tutorial di Notebook
Informazioni sulla ricerca ibrida
Creare e gestire l'indice
Formato e struttura dei dati di input
Creare e gestire l'indice
Indici ottimizzati per l'archiviazione
Parametri di configurazione degli indici
Aggiorna e ricrea indice
Filtrare le corrispondenze vettoriali
Importare i dati dell'indice da BigQuery
Incorporamenti con metadati
Esegui il deployment di un indice ed esegui query
Private Service Connect (consigliato)
Configurare la ricerca di vettori con Private Service Connect
Query
Autenticazione con token web JSON
Endpoint pubblico
Esegui il deployment
Query
Accesso privato ai servizi
Configurare una connessione di peering di rete VPC
Esegui il deployment
Query
Autenticazione con token web JSON
Monitorare un indice di cui è stato eseguito il deployment
Utilizzare i criteri dell'organizzazione personalizzati
Assistenza
Operazioni di machine learning (MLOps)
Gestisci funzionalità
Gestione delle funzionalità in Vertex AI
Vertex AI Feature Store
Informazioni su Vertex AI Feature Store
Configurare le funzionalità
Prepara l'origine dati
Creare un gruppo di funzionalità
Creare una funzionalità
Configurare la pubblicazione online
Tipi di pubblicazione online
Creare un'istanza del negozio online
Crea un'istanza di visualizzazione caratteristiche
Controllare l'accesso
Controllare l'accesso alle risorse
Sincronizzare il negozio online
Avviare una sincronizzazione dei dati
Elenca operazioni di sincronizzazione
Aggiornare le funzionalità in una visualizzazione delle caratteristiche
Pubblicare funzionalità
Pubblicare funzionalità dal negozio online
Pubblicare i valori storici delle funzionalità
Monitoraggio
Monitorare le funzionalità
Gestire le risorse delle funzionalità
Elenco dei gruppi di funzionalità
Elenco funzionalità
Aggiornare un gruppo di funzionalità
Aggiornare una funzionalità
Eliminare un gruppo di funzionalità
Eliminare un elemento
Gestire le risorse del negozio online
Elenco di negozi online
Visualizzazioni delle caratteristiche dell'elenco
Aggiornare un negozio online
Aggiornare una visualizzazione delle caratteristiche
Eliminare un negozio online
Eliminare una visualizzazione delle caratteristiche
Metadati delle funzionalità
Aggiorna etichette
Cerca risorse
Cerca risorse
Cercare i metadati delle risorse in Data Catalog
Gestire gli incorporamenti
Ricerca utilizzando gli embedding
Tutorial di Notebook
Blocchi note tutorial di Vertex AI Feature Store
Feature Store Vertex AI (legacy)
Informazioni su Vertex AI Feature Store (legacy)
Modello dei dati e risorse
Requisiti dei dati di origine
Configurazione
Best practice
Utilizzare Vertex AI Feature Store (legacy)
Gestione dei featurestore
Gestione dei tipi di entità
Gestione e ricerca di caratteristiche
Importazione collettiva
Importazione di flussi di dati
Pubblicazione online
Recupero dei dati di addestramento
Esportazione dei valori delle caratteristiche
Eliminare i valori delle caratteristiche
Monitoraggio
Controllare l'accesso alle risorse
Gestione modelli
Introduzione a Vertex AI Model Registry
Controllo delle versioni in Model Registry
Importare i modelli in Model Registry
Copiare i modelli in Model Registry
Eliminazione di un modello
Integrazione con BigQuery ML
Utilizzare gli alias dei modelli
Utilizzare le etichette del modello
Utilizzare Data Catalog per cercare risorse di modelli e set di dati
Valutare i modelli
Valutazione dei modelli in Vertex AI
Esecuzione della valutazione dei modelli in Vertex AI
Valutazione del modello per l'equità
Introduzione alla valutazione del modello per l'equità
Metriche relative al bias dei dati per Vertex AI
Metriche di bias del modello per Vertex AI
Tutorial sui notebook di valutazione del modello
Orchestrare i flussi di lavoro di ML utilizzando le pipeline
Presentazione
Interfacce
Configura il tuo progetto
Crea una pipeline
Esegui una pipeline
Utilizzare i modelli di pipeline
Creare, caricare e utilizzare un modello di pipeline
Utilizzare un modello predefinito dalla galleria dei modelli
Configurazione della pipeline
Configurazione della memorizzazione nella cache di un'esecuzione
Configura il criterio di errore
Configurare i tentativi di ripetizione per un'attività della pipeline
Specifica dei tipi di macchina per un passaggio della pipeline
Richiedere risorse di macchine Google Cloud con Vertex AI Pipelines
Configura l'interfaccia Private Service Connect (consigliato)
Configurazione dei secret con Secret Manager
Configurare l'esecuzione di una pipeline su una risorsa permanente
Pianificazione e attivazione dell'esecuzione di pipeline
Pianificare l'esecuzione di una pipeline con l'API Scheduler
Attivazione dell'esecuzione di una pipeline con Pub/Sub
Annullare o eliminare le esecuzioni pipeline
Annulla esecuzioni pipeline
Elimina esecuzioni pipeline
Esegui di nuovo una pipeline
Monitora l'esecuzione della pipeline
Visualizza le metriche della pipeline
Visualizza i log dei job della pipeline
Inoltra i log a una destinazione Cloud Pub/Sub
Configurazione delle notifiche via email
Visualizzare i risultati
Visualizzazione e analisi dei risultati delle pipeline
Monitoraggio della derivazione degli artefatti della pipeline
File HTML e markdown di output
Tagging delle risorse da parte di Vertex AI Pipelines
Informazioni sui costi di esecuzione della pipeline
Migrazione da Kubeflow Pipelines a Vertex AI Pipelines
Utilizzare vincoli personalizzati
Google Cloud Pipeline Components
Guida rapida
Introduzione a Google Cloud Pipeline Components
Elenco di Google Cloud Pipeline Components
Utilizzare Google Cloud Pipeline Components
Crea i tuoi componenti della pipeline
Tutorial su Vertex AI Pipelines
Notebook tutorial
Monitoraggio e analisi dei metadati ML
Introduzione a Vertex ML Metadata
Modello dei dati e risorse
Configurazione dell'archivio dei metadati del progetto
Utilizzo di Vertex ML Metadata
Monitorare Vertex ML Metadata
Analizza i metadati Vertex ML
Gestire Vertex ML Metadata
Schemi di sistema
Creazione e utilizzo di schemi personalizzati
Utilizzare vincoli personalizzati con gli archivi di metadati
Tutorial sui notebook Vertex ML Metadata
Comprendere il comportamento del modello
Introduzione a Explainable AI
Configurare le spiegazioni basate su esempi per l'addestramento personalizzato
Configurare le spiegazioni basate su caratteristiche per l'addestramento personalizzato
Configurazione delle spiegazioni
Configurazione delle impostazioni di visualizzazione
Miglioramento delle spiegazioni
Configurare le spiegazioni basate sulle funzionalità per la classificazione delle immagini AutoML
Configurazione delle impostazioni di visualizzazione
Miglioramento delle spiegazioni
Utilizzare TensorFlow per le spiegazioni
Richiesta di spiegazioni
Limitazioni di Explainable AI
Tutorial sui notebook Explainable AI
Monitorare la qualità del modello
Introduzione a Model Monitoring
Model Monitoring v2