Passer au contenu principal
Documentation
Domaines technologiques
close
IA et ML
Développement d'applications
Hébergement d'applications
Calcul
Analyses de données et pipelines
Bases de données
Solutions distribuées, hybrides et multicloud
IA générative
Solutions par secteur d'activité
Mise en réseau
Observabilité et surveillance
Sécurité
Storage
Outils de produits croisés
close
Gestion des accès et des ressources
Gestion des coûts et de l'utilisation
Google Cloud SDK, langages, frameworks et outils
Infrastructure as Code
Migration
Sites connexes
close
Accueil Google Cloud
Essai sans frais et niveau gratuit
Architecture Center
Blog
Contacter le service commercial
Google Cloud Developer Center
Google Developer Center
Google Cloud Marketplace
Documentation de Google Cloud Marketplace
Google Cloud Skills Boost
Google Cloud Solution Center
Assistance Google Cloud
Chaîne YouTube Google Cloud Tech
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Connexion
BigQuery
Guides
Référence
Exemples
Ressources
Nous contacter
Commencer l'essai gratuit
Documentation
Guides
Référence
Exemples
Ressources
Domaines technologiques
Plus
Outils de produits croisés
Plus
Sites connexes
Plus
Console
Nous contacter
Commencer l'essai gratuit
Découvrir
Vue d'ensemble du produit
Essayer BigQuery avec le bac à sable
Premiers pas
Essayer la console
Charger et interroger des données
Essayer les DataFrames
Essayer l'outil de ligne de commande
Charger et interroger des données
Essayer les bibliothèques clientes
Découvrir les outils BigQuery
Découvrir la console
Explorer l'outil de ligne de commande
Migrer
Aperçu
Migrer un entrepôt de données
Présentation du service de migration BigQuery
Évaluation de la migration
Migrer le schéma et les données
Migrer les pipelines de données
Migrer SQL
Traduire des requêtes SQL de manière interactive
Traduire des requêtes SQL à l'aide de l'API
Traduire des requêtes SQL par lot
Générer des métadonnées pour la traduction et l'évaluation
Transformer des traductions SQL avec YAML
Mapper les noms d'objet SQL pour la traduction par lot
Guides de migration
Amazon Redshift
Présentation de la migration
Migrer le schéma et les données Amazon Redshift
Migrer le schéma et les données Amazon Redshift lors de l'utilisation d'un VPC
Documentation de référence sur la traduction du langage SQL
Apache Hadoop
Extraire les métadonnées de Hadoop pour la migration
Migrer les autorisations depuis Hadoop
Programmer un transfert de lac de données HDFS
Apache Hive
Présentation de la migration Hive
Migrer le schéma et les données Apache Hive
Documentation de référence sur la traduction du langage SQL
IBM Netezza
Migrer depuis IBM Netezza
Documentation de référence sur la traduction du langage SQL
Oracle
Guide de migration
Documentation de référence sur la traduction du langage SQL
Snowflake
Présentation
Planifier un transfert Snowflake
Présentation de la migration
Documentation de référence sur la traduction du langage SQL
Teradata
Présentation
Présentation de la migration
Migrer le schéma et les données Teradata
Tutoriel de migration
Documentation de référence sur la traduction du langage SQL
Design
Organisez vos ressources
Dépendances des API
Comprendre les éditions
Ensembles de données
Présentation
Créer des ensembles de données
Répertorier des ensembles de données
Réplication interrégionale
Reprise après sinistre gérée
Migrer vers la reprise après sinistre gérée
Conservation des données des ensembles de données
Tables
les tables BigQuery
Présentation
Créer et utiliser des tables
Tables BigLake Iceberg dans BigQuery
Spécifier des schémas de table
Spécifier un schéma
Spécifier des colonnes imbriquées et répétées
Spécifier les valeurs de colonne par défaut
Spécifier les valeurs ObjectRef
Segmenter avec des tables partitionnées
Présentation
Créer des tables partitionnées
Gérer des tables partitionnées
Interroger des tables partitionnées
Optimiser les tables en cluster
Présentation
Créer des tables en cluster
Gérer les tables en cluster
Interroger des tables en cluster
Utiliser l'indexation des métadonnées
Tables externes
Présentation
Types de tables externes
Tables externes BigLake
BigQuery Omni
Tables d'objets
Tables externes
Fichier de définition de table externe
Données partitionnées en externe
Utiliser la mise en cache des métadonnées
Tables externes BigLake Amazon S3
Tables externes Apache Iceberg
Tables BigLake Azure Blob Storage
Table externe Bigtable
Tables externes BigLake pour Cloud Storage
Tables d'objets Cloud Storage
Tables externes Cloud Storage
Tables BigLake Delta Lake
Tables externes Google Drive
Vues
Vues logiques
Présentation
Créer des vues logiques
Vues matérialisées
Présentation
Créer des vues matérialisées
Gérer tous les types de vues
Obtenir des informations sur les vues
Gérer les vues
Routines
Présentation
Gérer les routines
Fonctions définies par l'utilisateur
Fonctions définies par l'utilisateur en Python
Fonctions d'agrégation définies par l'utilisateur
Fonctions de table
Fonctions à distance
Procédures stockées dans SQL
Procédures stockées pour Apache Spark
Analyser des tables d'objets à l'aide de fonctions distantes
Tutoriel sur les fonctions à distance et l'API Translation
Connexions
Présentation
Connexion à Amazon S3
Connexion à Apache Spark
Connexion à Azure Blob Storage
Connexion aux ressources cloud
Connexion Spanner
Connexion à Cloud SQL
Connexion AlloyDB
Connexion SAP Datasphere
Gérer les connexions
Configurer les connexions avec des rattachements de réseau
Connexions par défaut
Index
Rechercher dans les index
Présentation
Gérer les index de recherche
Index vectoriels
Présentation
Gérer les index vectoriels
Charger, transformer et exporter
Présentation
Charger les données
Présentation
Présentation du stockage
Service de transfert de données BigQuery
Présentation
Emplacement des données et transferts
Autoriser les transferts
Activer les transferts
Configurer les connexions réseau
Accès aux instances Cloud SQL
AWS VPN et rattachement réseau
VPN Azure et rattachement réseau
Gérer les transferts
Notifications d'exécution de transfert
Résoudre les problèmes liés aux configurations de transfert
Utiliser des comptes de service
Utiliser les transferts tiers
Utiliser des règles d'administration personnalisées
Journal des modifications apportées aux sources de données
Transferts basés sur des événements
Guides de transfert
Amazon S3
Présentation
Planifier des transferts
Paramètres d'exécution de transfert
Azure Blob Storage
Présentation
Planifier des transferts
Paramètres d'exécution de transfert
Campaign Manager
Planifier des transferts
Transformation de rapport
Cloud Storage
Présentation
Planifier des transferts
Paramètres d'exécution de transfert
Comparison Shopping Service Center
Présentation
Planifier des transferts
Schéma du rapport de transfert
Display & Video 360
Planifier des transferts
Transformation de rapport
Facebook Ads
Planifier des transferts
Transformation de rapport
Google Ad Manager
Planifier des transferts
Transformation de rapport
Google Ads
Planifier des transferts
Transformation de rapport
Google Analytics 4
Planifier des transferts
Transformation de rapport
Google Merchant Center
Présentation
Planifier des transferts
Interroger les données
Guides de migration
Meilleures ventes
Compétitivité tarifaire
Schéma du rapport de transfert
Table "Meilleures ventes"
Table "Inventaires locaux"
Tableau des performances
Table "Benchmarks de prix"
Table "Compétitivité tarifaire"
Table "Tendances des prix"
Table "Inventaire des produits"
Tableau "Ciblage par produits"
Table de produits
Table "Inventaires régionaux"
Table "Marques les plus populaires"
Tableau "Meilleurs produits"
Google Play
Planifier des transferts
Transformation de rapport de transfert
MySQL
Planifier des transferts
Oracle
Planifier des transferts
PostgreSQL
Planifier des transferts
Salesforce
Planifier des transferts
Salesforce Marketing Cloud
Planifier des transferts
Search Ads 360
Planifier des transferts
Transformation de rapport de transfert
Guide de migration
ServiceNow
Planifier des transferts
Chaîne YouTube
Planifier des transferts
Transformation de rapport de transfert
Propriétaire de contenu YouTube
Planifier des transferts
Transformation de rapport de transfert
Charger des données par lot
Présentation
Détecter automatiquement des schémas
Charger des données Avro
Charger des données Parquet
Charger des données ORC
Charger des données CSV
Charger des données JSON
Charger des données partitionnées externes
Charger des données à partir d'une exportation Datastore
Charger des données à partir d'une exportation Firestore
Charger des données à l'aide de l'API Storage Write
Charger des données dans des tables partitionnées
Écrire et lire des données avec l'API Storage
Lire des données avec l'API Storage Read
Écrire des données en streaming avec l'API Storage Write
Présentation
Transférer des données en streaming avec l'API Storage Write
Charger des données par lot à l'aide de l'API Storage Write
Bonnes pratiques
Types de données Protocol Buffer et Arrow compatibles
Diffuser des mises à jour en continu avec capture des données modifiées
Utiliser l'ancienne API de diffusion de flux
Charger des données depuis d'autres services Google
Découvrir et cataloguer des données Cloud Storage
Charger des données à l'aide d'applications tierces
Charger des données à l'aide d'opérations inter-cloud
Transformer les données
Présentation
Préparer les données
Présentation
Préparer des données avec Gemini
Transformer avec LMD
Transformer des données dans des tables partitionnées
Utiliser l'historique des modifications
Transformer des données avec des pipelines
Présentation
Créer des pipelines
Exporter les données
Présentation
Exporter des résultats de requête
Exporter vers Cloud Storage
Exporter vers Bigtable
Exporter vers Spanner
Exporter vers Pub/Sub
Exporter en tant que colonnes Protobuf
Analyser
Présentation
Rechercher des ressources
Explorer des données
Créer des requêtes avec l'explorateur de tables
Procéder au profilage de vos données
Générer des insights sur les données
Analyser avec un canevas de données
Analyser des données avec Gemini
Interroger les données BigQuery
Exécuter une requête
Rédiger des requêtes avec Gemini
Écrire des résultats de requête
Interroger des données avec SQL
Présentation
Tableaux
Données JSON
Requêtes à plusieurs instructions
Requêtes paramétrées
Syntaxe pipe
Analyser des données à l'aide de la syntaxe pipe
CTE récursifs
Résumés
Échantillonnage de table
Séries temporelles
Transactions
Tables génériques
Utiliser les analyses géospatiales
Présentation
Travailler avec des données analytiques géospatiales
Utiliser des données raster
Bonnes pratiques pour l'analyse spatiale
Visualiser des données géospatiales
Systèmes de grille pour l'analyse spatiale
Documentation de référence sur la syntaxe des analyses géospatiales
Tutoriels sur les analyses géospatiales
Premiers pas avec l'analyse géospatiale
Utiliser les données analytiques géospatiales pour calculer le trajet d'un ouragan
Visualiser des données d'analyse géospatiale dans un notebook Colab
Utiliser des données raster pour analyser la température
Rechercher des données
Effectuer une recherche sur des données indexées
Utiliser des analyseurs de texte
Accéder aux données de l'historique
Utiliser des requêtes
Enregistrer des requêtes
Présentation
Créer des requêtes enregistrées
Requêtes continues
Présentation
Créer des requêtes continues
Utiliser les résultats mis en cache
Utiliser des sessions
Présentation
Utiliser des sessions
Écrire des requêtes dans des sessions
Résoudre les problèmes liés aux requêtes
Optimiser les requêtes
Présentation
Utiliser l'explication du plan de requête
Obtenir des insights sur les performances des requêtes
Optimiser le calcul des requêtes
Utiliser les optimisations basées sur l'historique
Optimiser le stockage pour les performances des requêtes
Utiliser les vues matérialisées
Utiliser BI Engine
Utiliser des données imbriquées et répétées
Optimiser les fonctions
Utiliser l'environnement d'exécution avancé
Utiliser des clés primaires et étrangères
Analyser des données multimodales
Présentation
Analyser des données multimodales avec des UDF SQL et Python
Analyser des données multimodales avec les DataFrames BigQuery
Interroger des sources de données externes
Gérer les métadonnées Open Source avec BigLake Metastore
Présentation
Utiliser avec des tables dans BigQuery
Utiliser avec Dataproc
Utiliser avec Serverless pour Apache Spark
Utiliser avec les procédures stockées Spark
Gérer les ressources de métastore
Créer et interroger des tables à partir de Spark
Personnaliser avec des fonctionnalités supplémentaires
Utiliser avec le catalogue REST Iceberg
Formats optimaux de données et de métadonnées pour les lakehouses
Utiliser des tables et des ensembles de données externes
Données Amazon S3
Interroger les données Amazon S3
Exporter les résultats de requêtes vers Amazon S3
Interroger des données Apache Iceberg
Interroger les formats de tables ouverts avec des fichiers manifestes
Données Azure Blob Storage
Interroger des données Azure Blob Storage
Exporter les résultats de requêtes vers Azure Blob Storage
Interroger des données Cloud Bigtable
Données Cloud Storage
Interroger des données Cloud Storage dans des tables BigLake
Interroger des données Cloud Storage dans des tables externes
Utiliser des données Salesforce Data Cloud
Interroger des données Google Drive
Créer des ensembles de données fédérés AWS Glue
Créer des ensembles de données externes Spanner
Exécuter des requêtes fédérées
Requêtes fédérées
Interroger des données SAP Datasphere
Interroger les données AlloyDB
Interroger des données Spanner
Interroger des données Cloud SQL
Utiliser des notebooks
Présentation
Utiliser des notebooks Colab
Présentation
Créer des notebooks
Explorer les résultats de la requête
Utiliser Spark
Utiliser l'agent data science de Colab
Utiliser des DataFrames
Présentation
Utiliser des DataFrames
Utiliser le système de types de données
Gérer les sessions et les E/S
Visualiser les graphiques
Utiliser des DataFrames dans dbt
Optimiser les performances
Utiliser des notebooks Jupyter
Utiliser le plug-in BigQuery JupyterLab
Utiliser des outils d'analyse et d'informatique décisionnelle
Présentation
Utiliser des feuilles connectées
Utiliser Tableau Desktop
Utiliser Looker
Utiliser Looker Studio
Utiliser des outils tiers
Google Cloud Ready – BigQuery
Aperçu
Partenaires
IA et machine learning
Présentation
Modèles d'IA générative et pré-entraînés
Parcours utilisateur de bout en bout pour les modèles d'IA générative
IA générative
Aperçu
Choisir une fonction de génération de texte
Modèles intégrés
Modèle de prévision de séries temporelles TimesFM
Tutoriels
Générer du texte
Générer du texte à l'aide de données publiques et de Gemini
Générer du texte à l'aide de données publiques et de Gemma
Générer du texte à l'aide de vos données
Gérer les erreurs de quota en appelant ML.GENERATE_TEXT de manière itérative
Analyser des images avec un modèle Gemini
Régler les modèles de génération de texte
Régler un modèle à l'aide de vos données
Améliorer les performances d'un modèle à l'aide des réglages et de l'évaluation
Générer des données structurées
Générer des données structurées
Générez des embeddings.
Générer des embeddings de texte à l'aide d'un LLM
Générer des embeddings de texte à l'aide d'un modèle ouvert
Générer des embeddings d'images à l'aide d'un LLM
Générer des embeddings vidéo à l'aide d'un LLM
Gérer les erreurs de quota en appelant ML.GENERATE_EMBEDDING de manière itérative
Générer et rechercher des embeddings multimodaux
Générer des embeddings de texte à l'aide de modèles TensorFlow pré-entraînés
recherche vectorielle
Rechercher des embeddings à l'aide de la recherche vectorielle
Effectuer une recherche sémantique et une génération augmentée de récupération
Solutions spécifiques à une tâche
Aperçu
Choisir une fonction de traitement du langage naturel
Choisir une fonction de traitement de documents
Tutoriels
Traitement du langage naturel
Comprendre du texte
Traduire du texte
Traitement de documents
Traiter des documents
Analyser des PDF dans un pipeline de génération augmentée par récupération
Reconnaissance vocale
Transcrire des fichiers audio
Vision par ordinateur
Annoter des images
Exécuter l'inférence sur les données d'image
Analyser des images avec un modèle de classification importé
Analyser des images avec un modèle de vecteur de caractéristiques importé
Machine learning
Parcours utilisateur de bout en bout pour les modèles de ML
Parcours utilisateur de bout en bout pour les modèles importés
Modèles de ML et MLOps
Création de modèle
Ingénierie et gestion des caractéristiques
Présentation du prétraitement des caractéristiques
Types de caractéristiques d'entrée compatibles
Prétraitement automatique
Prétraitement manuel
Publication de caractéristiques
Effectuer une ingénierie des caractéristiques avec la clause TRANSFORM
Présentation des réglages d'hyperparamètres
Présentation de l'évaluation de modèle
Présentation de l'inférence de modèle
Présentation d'Explainable AI
Présentation de pondération de modèle
Présentation des pipelines de ML
Présentation de la surveillance des modèles
Gérer des modèles BigQueryML dans Vertex AI
Cas d'utilisation
Classification
Régression
Réduction de la dimensionnalité
Clustering
Recommandation
Détection d'anomalies
Tutoriels
Premiers pas
Premiers pas avec BigQuery ML à l'aide de SQL
Premiers pas avec BigQuery ML à l'aide de la console Cloud
Régression et classification
Créer un modèle de régression linéaire
Créer un modèle de classification par régression logistique
Créer un modèle de classification d'arbres de décision boostés
Clustering
Regrouper des données avec un modèle de k-moyennes
Recommandation
Créer des recommandations basées sur des commentaires explicites avec un modèle de factorisation matricielle
Créer des recommandations basées sur des commentaires implicites avec un modèle de factorisation matricielle
Détection d'anomalies
Détection d'anomalies avec une série temporelle multivariée
Modèles importés et distants
Effectuer des prédictions à l'aide des modèles TensorFlow importés
Effectuer des prédictions à l'aide de modèles scikit-learn au format ONNX
Effectuer des prédictions à l'aide de modèles PyTorch au format ONNX
Effectuer des prédictions à l'aide de modèles distants sur Vertex AI
Réglages d'hyperparamètres
Améliorer les performances du modèle avec les réglages d'hyperparamètres
Exporter des modèles
Exporter un modèle BigQuery ML pour la prédiction en ligne
Séries temporelles
Aperçu
Parcours utilisateur de bout en bout pour les modèles de prévision
Tutoriels
Prévoir une seule série temporelle avec un modèle univarié ARIMA_PLUS
Prévoir plusieurs séries temporelles avec un modèle univarié ARIMA_PLUS
Prévoir des séries temporelles avec un modèle univarié TimesFM
Mettre à l'échelle un modèle univarié ARIMA_PLUS à des millions de séries temporelles
Prévoir une seule série temporelle avec un modèle multivarié
Prévoir plusieurs séries temporelles avec un modèle multivarié
Utiliser des jours fériés personnalisés avec un modèle univarié ARIMA_PLUS
Limiter les valeurs prévues pour un modèle univarié ARIMA_PLUS
Prévoir des séries temporelles hiérarchiques avec un modèle univarié ARIMA_PLUS
Des analyses optimisées
Analyse des contributions
Tutoriels
Obtenir des insights sur les données à partir de l'analyse des contributions à l'aide d'une métrique sommable
Obtenir des insights sur les données à partir de l'analyse des contributions à l'aide d'une métrique de ratio sommable
Utiliser des modèles
Répertorier les modèles
Gérer des modèles
Obtenir les métadonnées du modèle
Mettre à jour les métadonnées de modèle
Exporter des modèles
Supprimer des modèles
Modèles de référence
Administrer
Présentation
Gérer les ressources
Organisez vos ressources
Comprendre la fiabilité
Gérer les composants de code
Gérer les préparations de données
Gérer les notebooks
Gérer les requêtes enregistrées
Gérer les pipelines
Gérer les tables
Gérer les tables
Gérer des données de table