Passer au contenu principal

Google Cloud
Documentation Domaines technologiques
  • IA et ML
  • Développement d'applications
  • Hébergement d'applications
  • Calcul
  • Analyses de données et pipelines
  • Bases de données
  • Solutions distribuées, hybrides et multicloud
  • IA générative
  • Solutions par secteur d'activité
  • Gestion des réseaux
  • Observabilité et surveillance
  • Sécurité
  • Storage
Outils de produits croisés
  • Gestion des accès et des ressources
  • Gestion des coûts et de l'utilisation
  • Google Cloud SDK, langages, frameworks et outils
  • Infrastructure as Code (IaC)
  • Migration
Sites connexes
  • Accueil Google Cloud
  • Essai et niveau gratuits
  • Architecture Center
  • Blog
  • Contacter le service commercial
  • Centre pour les développeurs Google Cloud
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentation de Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Assistance Google Cloud
  • Chaîne YouTube de l'équipe Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Connexion
  • Vertex AI
Guides Référence Exemples Assistance Ressources
Nous contacter Commencer l'essai gratuit
Google Cloud
  • Documentation
    • Guides
    • Référence
    • Exemples
    • Assistance
    • Ressources
  • Domaines technologiques
    • Plus
  • Outils de produits croisés
    • Plus
  • Sites connexes
    • Plus
  • Console
  • Nous contacter
  • Commencer l'essai gratuit
  • Découvrir
  • Vue d'ensemble
  • Présentation de Vertex AI
  • MLOps sur Vertex AI
  • Interfaces pour Vertex AI
  • Guides du débutant pour Vertex AI
    • Entraîner un modèle AutoML
    • Entraîner un modèle personnalisé
    • Obtenir des prédictions à partir d'un modèle personnalisé
    • Entraîner un modèle à l'aide de Vertex AI et du SDK Python
      • Présentation
      • Conditions préalables
      • Créer un notebook
      • Créer un ensemble de données
      • Créer un script d'entraînement
      • Entraîner un modèle
      • Effectuer une prédiction
  • Frameworks de ML intégrés
    • PyTorch
    • TensorFlow
  • Vertex AI pour les utilisateurs de BigQuery
  • Glossaire
  • Premiers pas
  • Configurer un projet et un environnement de développement
  • installer le SDK Vertex AI pour Python ;
  • Choisir une méthode d'entraînement
  • Suivez un tutoriel
    • Présentation des tutoriels
    • Tutoriels AutoML
      • Données d'images Hello
        • Vue d'ensemble
        • Configurer votre projet et votre environnement
        • Créer un ensemble de données et importer des images
        • Entraîner un modèle de classification d'images AutoML
        • Évaluer et analyser les performances du modèle
        • Déployer un modèle sur un point de terminaison et effectuer une prédiction
        • Nettoyer votre projet
      • Données tabulaires Hello
        • Vue d'ensemble
        • Configurer votre projet et votre environnement
        • Créer un ensemble de données et entraîner un modèle de classification AutoML
        • Déployer un modèle et demander une prédiction
        • Nettoyer votre projet
      • Données de texte Hello
        • Vue d'ensemble
        • Configurer votre projet et votre environnement
        • Créer un ensemble de données et importer des documents
        • Entraîner un modèle de classification de texte AutoML
        • Déployer un modèle sur un point de terminaison et effectuer une prédiction
        • Nettoyer votre projet
      • Données vidéo Hello
        • Vue d'ensemble
        • Configurer votre projet et votre environnement
        • Créer un ensemble de données et importer des vidéos
        • Entraîner un modèle de classification de vidéos AutoML
        • Effectuer une prédiction par lot en déployant un modèle
        • Nettoyer votre projet
    • Tutoriels sur l'entraînement personnalisé
      • Entraîner un modèle tabulaire personnalisé
      • Entraîner un modèle de classification d'images TensorFlow Keras
        • Vue d'ensemble
        • Configurer votre projet et votre environnement
        • Entraîner un modèle de classification d'images personnalisé
        • Diffuser des prédictions à partir d'un modèle de classification d'images personnalisé
        • Nettoyer votre projet
      • Ajuster un modèle de classification d'images avec des données personnalisées
    • Tutoriels sur les notebooks Jupyter pour l'entraînement personnalisé
    • Utiliser Terraform pour créer une instance de notebooks gérés par l'utilisateur
  • Utiliser l'IA générative et les LLM
  • À propos de l'IA générative
  • Gemini pour les utilisateurs AutoML Text
  • Migrer de AutoML Text vers Gemini
  • Utiliser les outils de développement Vertex AI
  • Présentation des outils de développement
  • Utiliser le SDK Vertex AI
    • Vue d'ensemble
    • Présentation du SDK Vertex AI pour Python
    • Classes du SDK Vertex AI pour Python
      • Présentation des classes du SDK Vertex AI
      • Classes de données
      • Classes d'entraînement
      • Classes de modèles
      • Classes de prédiction
      • Classes de suivi
  • Utiliser Vertex AI dans des notebooks
    • Choisir une solution de notebook
    • Colab Enterprise
      • Premiers pas
      • Créer un notebook à l'aide de la console
      • Exécuter le code
      • Se connecter à un environnement d'exécution
      • Gérer les environnements d'exécution et les modèles d'environnement d'exécution
      • Créer un modèle d'environnement d'exécution
      • Créer un environnement d'exécution
    • Vertex AI Workbench
      • Présentation
      • Tutoriels sur les notebooks Jupyter pour Vertex AI Workbench
      • Instances
      • Présentation des instances
      • Premiers pas
        • Créer une instance à l'aide de la console
        • Planifier une exécution de notebook
      • Configurer une instance
        • Créer une instance
        • Créer une version spécifique d'une instance
        • Ajouter un environnement Conda
        • Arrêt en cas d'inactivité
        • Créer une instance à l'aide d'un conteneur personnalisé
        • Créer une instance exploitant Dataproc
        • Créer une instance avec des identifiants tiers
        • Gérer les caractéristiques via les métadonnées
        • Utiliser les réservations
      • Associer à des données
        • Interroger les données dans BigQuery à partir de JupyterLab
        • Accéder aux fichiers et buckets Cloud Storage dans JupyterLab
      • Explorer et visualiser des données
        • Explorer et visualiser les données dans BigQuery
      • Entretenir
        • Gérer votre environnement Conda
        • Enregistrer un notebook sur GitHub
        • Sauvegarder et restaurer une instance
        • Arrêter une instance
        • Mettre à niveau l'environnement d'une instance
        • Accéder à JupyterLab à l'aide de SSH
        • Migrer des données vers une nouvelle instance
        • Modifier le type de machine et configurer les GPU
      • Contrôler
        • Surveiller l'état
      • Contrôler les accès
        • Contrôle des accès
        • Gérer l'accès à une instance
        • Gérer l'accès à l'interface JupyterLab d'une instance
        • Utiliser les clés de chiffrement gérées par le client
        • Utiliser une instance dans un périmètre de service
      • Résoudre les problèmes liés aux instances Vertex AI Workbench
      • Notes de version de Vertex AI Workbench
      • Notebooks gérés
      • Présentation des notebooks gérés
      • Premiers pas
        • Créer une instance de notebooks gérés à l'aide de Cloud Console
        • Planifier l'exécution d'un notebook géré
      • Configurer une instance de notebooks gérés
        • Créer une instance de notebook géré
        • Créer une instance avec un conteneur personnalisé
        • Exécuter une instance de notebooks gérés sur un cluster Dataproc
        • Utiliser Dataproc sans serveur Spark avec des notebooks gérés
        • Arrêt en cas d'inactivité
        • Versions de notebooks gérés
      • Associer à des données
        • Interroger les données dans BigQuery à partir de JupyterLab
        • Accéder aux fichiers et buckets Cloud Storage dans JupyterLab
      • Explorer et visualiser des données
        • Vue d'ensemble
        • Explorer et visualiser les données dans BigQuery
      • Développer un modèle
        • Développement de modèles dans une instance de notebooks gérés
      • Déployer
        • Exécuter des fichiers notebook avec l'exécuteur
        • Exécuter des exécutions de notebook avec des paramètres
      • Entretenir
        • Migrer vers une instance Vertex AI Workbench
        • Enregistrer un notebook sur GitHub
        • Modifier le type de machine et configurer les GPU d'une instance de notebooks gérés
        • Mettre à niveau l'environnement d'une instance de notebooks gérés
        • Migrer des données vers une nouvelle instance de notebooks gérés par l'utilisateur
      • Contrôler
        • Journaux d'audit
      • Contrôler les accès
        • Contrôle des accès
        • Gérer l'accès à une instance
        • Gérer l'accès à l'interface JupyterLab d'une instance
        • Utiliser les clés de chiffrement gérées par le client
        • Configurer un réseau
        • Utiliser une instance de notebook gérée dans un périmètre de service
      • Résoudre les problèmes liés aux notebooks gérés
      • Notebooks gérés par l'utilisateur
      • Présentation des notebooks gérés par l'utilisateur
      • Premiers pas
        • Créer une instance de notebooks gérés par l'utilisateur à l'aide de Cloud Console
      • Configurer une instance de notebooks gérés par l'utilisateur
        • Créer une instance de notebooks gérés par l'utilisateur
        • Créer une version spécifique d'une instance
        • Créer une instance après la date de fin de correctif et de fin de compatibilité
        • Installer des dépendances
        • Choisir une image de machine virtuelle
        • Créer une instance avec un conteneur personnalisé
      • Explorer les données
        • Data science avec R sur Google Cloud : tutoriel d'analyse de données exploratoire
      • Contrôler
        • Surveiller l'état
        • Journaux d'audit
      • Contrôler les accès
        • Contrôle des accès
        • Gérer l'accès à une instance
        • Gérer l'accès à l'interface JupyterLab d'une instance
        • Clés de chiffrement gérées par le client
        • Utiliser une instance de notebooks gérés par l'utilisateur dans un périmètre de service
        • Utiliser une machine virtuelle protégée avec des notebooks gérés par l'utilisateur
        • Tutoriel : Créer une instance de notebook dans un réseau VPC
      • Entretenir
        • Migrer vers une instance Vertex AI Workbench
        • Enregistrer un notebook sur GitHub
        • Sauvegarder vos données à l'aide d'un instantané
        • Arrêter une instance de notebooks gérés par l'utilisateur
        • Modifier le type de machine et configurer les GPU d'une instance de notebooks gérés par l'utilisateur
        • Mettre à niveau l'environnement d'une instance de notebooks gérés par l'utilisateur
        • Migrer des données vers une nouvelle instance de notebooks gérés par l'utilisateur
        • Enregistrer une ancienne instance avec l'API Notebooks
        • Accéder à JupyterLab à l'aide de SSH
      • Résoudre les problèmes liés aux notebooks gérés par l'utilisateur
  • Compatibilité de Terraform avec Vertex AI
  • Développer et utiliser des modèles de ML
  • Vue d'ensemble
  • Données d'image
    • Classification
      • Préparer les données
      • Créer un ensemble de données
      • Entraîner le modèle
      • Évaluer le modèle
      • Obtenir des prédictions
      • Interpréter les résultats
    • Détection d'objets
      • Préparer les données
      • Créer un ensemble de données
      • Entraîner le modèle
      • Évaluer le modèle
      • Obtenir des prédictions
      • Interpréter les résultats
    • Encoder des données d'image en Base64
    • Exporter un modèle AutoML Edge
  • Données tabulaires
    • Vue d'ensemble
    • Présentation des données tabulaires
    • Workflows tabulaires
      • Vue d'ensemble
      • Ingénierie des caractéristiques
      • AutoML de bout en bout
        • Vue d'ensemble
        • Entraîner un modèle
        • Obtenir des prédictions en ligne
        • Obtenir des prédictions par lot
      • TabNet
        • Vue d'ensemble
        • Entraîner un modèle
        • Obtenir des prédictions en ligne
        • Obtenir des prédictions par lot
      • Wide & Deep
        • Vue d'ensemble
        • Entraîner un modèle
        • Obtenir des prédictions en ligne
        • Obtenir des prédictions par lot
      • Prévision
        • Vue d'ensemble
        • Entraîner un modèle
        • Obtenir des prédictions en ligne
        • Obtenir des prédictions par lot
      • Tarifs
      • Service Accounts
      • Gérer les quotas
    • Effectuer des classifications et des régressions avec AutoML
      • Vue d'ensemble
      • Guide de démarrage rapide : Classification AutoML (console Cloud)
      • Préparer les données d'entraînement
      • Créer un ensemble de données
      • Entraîner un modèle
      • Évaluer le modèle
      • Afficher l'architecture du modèle
      • Obtenir des prédictions en ligne
      • Obtenir des prédictions par lot
      • Exporter le modèle
    • Effectuer des prévisions avec AutoML
      • Vue d'ensemble
      • Préparer les données d'entraînement
      • Créer un ensemble de données
      • Entraîner un modèle
      • Évaluer le modèle
      • Obtenir des prédictions
      • Prévisions hiérarchiques
    • Effectuer des prévisions avec ARIMA+
    • Effectuer des prévisions avec Prophet
    • Effectuer un rapprochement d'entités
    • Attributions de caractéristiques pour la classification et la régression
    • Attributions de caractéristiques pour la prévision
    • Types de données et transformations pour les données tabulaires AutoML
    • Paramètres d'entraînement pour les prévisions
    • Fractionnement des données pour les données tabulaires
    • Bonnes pratiques pour la création de données tabulaires d'entraînement
    • Effectuer des prévisions avec Timeseries Insights
  • Données textuelles
    • Classification
      • Préparer les données
      • Créer un ensemble de données
      • Entraîner le modèle
      • Évaluer le modèle
      • Obtenir des prédictions
      • Interpréter les résultats
    • Extraction d'entités
      • Préparer les données
      • Créer un ensemble de données
      • Entraîner le modèle
      • Évaluer le modèle
      • Obtenir des prédictions
      • Interpréter les résultats
    • Analyse des sentiments
      • Préparer les données
      • Créer un ensemble de données
      • Entraîner le modèle
      • Évaluer le modèle
      • Obtenir des prédictions
      • Interpréter les résultats
  • Données vidéo
    • Reconnaissance des actions
      • Préparer les données
      • Créer un ensemble de données
      • Entraîner le modèle
      • Évaluer le modèle
      • Obtenir des prédictions
      • Interpréter les résultats
    • Classification
      • Préparer les données
      • Créer un ensemble de données
      • Entraîner le modèle
      • Évaluer le modèle
      • Obtenir des prédictions
      • Interpréter les résultats
    • Suivi des objets
      • Préparer les données
      • Créer un ensemble de données
      • Entraîner le modèle
      • Évaluer le modèle
      • Obtenir des prédictions
      • Interpréter les résultats
  • Entraîner un modèle AutoML Edge
    • Utiliser la console
    • Utiliser l'API
  • Entraînement personnalisé
    • Présentation de l'entraînement personnalisé
    • Charger et préparer des données
      • Utiliser Cloud Storage comme système de fichiers installé
      • Installer un partage NFS pour l'entraînement personnalisé
      • Utiliser des ensembles de données gérés
    • Préparer l'application d'entraînement
      • Comprendre le service d'entraînement personnalisé
      • Préparer le code d'entraînement
      • Utiliser des conteneurs prédéfinis
        • Créer une application d'entraînement Python pour un conteneur prédéfini
        • Conteneurs préconfigurés pour l'entraînement personnalisé
      • Utiliser des conteneurs personnalisés
        • Conteneurs personnalisés pour l'entraînement
        • Créer un conteneur personnalisé
        • Conteneuriser et exécuter du code d'entraînement en local
      • Utiliser des images et conteneurs Deep Learning VM
    • Définir un entraînement sur une ressource persistante
      • Aperçu
      • Créer une ressource persistante
      • Exécuter des jobs d'entraînement sur une ressource persistante
      • Obtenir des informations sur des ressources persistantes
      • Redémarrer une ressource persistante
      • Supprimer une ressource persistante
    • Configurer le job d'entraînement
      • Choisir une méthode d'entraînement personnalisé
      • Configurer les paramètres du conteneur pour l'entraînement
      • Configurer des ressources de calcul pour l'entraînement
      • Utiliser des réservations avec l'entraînement
      • Utiliser des VM Spot pour l'entraînement
    • Envoyer une tâche d'entraînement
      • Créer des tâches personnalisées
      • Réglages d'hyperparamètres
        • Présentation des réglages d'hyperparamètres
        • Utiliser les réglages d'hyperparamètres
      • Créer des pipelines d'entraînement
      • Planifier des jobs en fonction de la disponibilité des ressources
      • Utiliser l'entraînement distribué
      • Entraîner avec des VM Cloud TPU
      • Utiliser une adresse IP privée pour l'entraînement personnalisé
    • Lancer une recherche Neural Architecture Search
      • Vue d'ensemble
      • Configurer l'environnement
      • Tutoriels de niveau débutant
      • Bonnes pratiques et workflow
      • Conception des tâches de proxy
      • Optimiser la vitesse d'entraînement pour PyTorch
      • Utiliser des conteneurs d'entraînement et des espaces de recherche prédéfinis
    • Surveiller et déboguer