Passer au contenu principal
Documentation
Domaines technologiques
close
IA et ML
Développement d'applications
Hébergement d'applications
Calcul
Analyses de données et pipelines
Bases de données
Solutions distribuées, hybrides et multicloud
IA générative
Solutions par secteur d'activité
Mise en réseau
Observabilité et surveillance
Sécurité
Storage
Outils de produits croisés
close
Gestion des accès et des ressources
Gestion des coûts et de l'utilisation
Google Cloud SDK, langages, frameworks et outils
Infrastructure as Code
Migration
Sites connexes
close
Accueil Google Cloud
Essai sans frais et niveau gratuit
Architecture Center
Blog
Contacter le service commercial
Google Cloud Developer Center
Google Developer Center
Google Cloud Marketplace
Documentation de Google Cloud Marketplace
Google Cloud Skills Boost
Google Cloud Solution Center
Assistance Google Cloud
Chaîne YouTube Google Cloud Tech
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Connexion
Cloud Run
Guides
Référence
Exemples
Ressources
Nous contacter
Commencer l'essai gratuit
Documentation
Guides
Référence
Exemples
Ressources
Domaines technologiques
Plus
Outils de produits croisés
Plus
Sites connexes
Plus
Console
Nous contacter
Commencer l'essai gratuit
Découvrir
Vue d'ensemble du produit
Modèle de ressource Cloud Run
Contrat d'exécution du conteneur
Mon application est-elle adaptée à un service Cloud Run ?
À quel moment déployer une fonction ?
Premiers pas
Aperçu
Déployer un exemple de service Web
Déployer un exemple de conteneur
Créer un dépôt de modèles et déployer à partir d'un dépôt Git
Déployer un service Hello World depuis le code source
Go
Node.js
Python
Flask
FastAPI
Gradio
Streamlit
Java
Kotlin
C#
C++
PHP
Ruby
Autre
Frameworks
Aperçu
SSR angulaire
Next.js
Nuxt.js
SvelteKit
Déployer un exemple de conteneur de pool de nœuds de calcul
Exécuter un exemple de job
Exécuter un job
Exécuter un job depuis le code source
Go
Node.js
Python
Java
Shell
Déployer un exemple de fonction
Déployer une fonction à l'aide de la console
Déployer une fonction à l'aide de gcloud
Développer
Configurer votre environnement
Planifier et préparer votre service
Développer votre service
Conteneuriser votre code
Se connecter aux services Google Cloud
Installer un package système dans votre conteneur
Exécuter des commandes gcloud dans votre conteneur
Agents d'IA
Héberger des agents d'IA
Héberger des agents A2A
Présentation des agents A2A hôtes
Déployer un agent A2A
Tester et surveiller le déploiement de l'agent A2A
Serveurs MCP
Serveurs MCP hôtes
Créer et déployer un serveur MCP à distance
Planifier et préparer votre fonction
Aperçu
Comparer les fonctions Cloud Run
Écrire des fonctions
Aperçu
Fonctions HTTP
Fonctions basées sur les événements
Environnements d'exécution
Aperçu
Node.js
Aperçu
Dépendances Node.js
Python
Aperçu
Dépendances Python
Go
Aperçu
Dépendances Go
Java
Aperçu
Dépendances Java
.NET
Ruby
PHP
Développement de fonctions locales
Déclencheurs de fonction
Tutoriels
Créer une fonction qui renvoie des résultats BigQuery
Créer une fonction qui renvoie des résultats Spanner
S'intégrer à Cloud Databases
Ateliers de programmation
Développer et tester
Créer des sources pour les conteneurs
Créer des fonctions pour des conteneurs
Tester en local
Diffuser des requêtes HTTP
Déployer les services
Déployer des images de conteneurs
Déploiement continu à partir de git
Déployer depuis le code source
Déployer des fonctions
Diffuser le trafic Web
Mapper les domaines personnalisés
Diffuser des éléments statiques avec CDN
Diffusion du trafic provenant de plusieurs régions
Activer l'affinité de session
Proxy d'interface à l'aide de Nginx
Gérer les services
Afficher, copier ou supprimer des services
Afficher ou supprimer des révisions
Migration du trafic, déploiements progressifs, rollbacks
Configurer des services
Aperçu
Capacité
Limites de mémoire
Limites de processeur
GPU
Configuration du GPU
Bonnes pratiques pour les performances des GPU
Exécuter l'inférence LLM sur les GPU Cloud Run avec Ollama
Exécuter des modèles Gemma 3 sur Cloud Run
Exécuter l'inférence LLM sur les GPU Cloud Run avec vLLM
Exécuter OpenCV sur Cloud Run avec l'accélération GPU
Exécuter l'inférence LLM sur les GPU Cloud Run avec Hugging Face Transformers.js
Exécuter l'inférence LLM sur les GPU Cloud Run avec Hugging Face TGI
Délai de la requête expiré
Nombre maximal de requêtes simultanées
Nombre maximal de requêtes simultanées par instance
Configurer le nombre maximal de requêtes simultanées
Facturation
Optimiser les configurations de service avec l'outil de recommandation
Environnement
Port du conteneur et point d'entrée
Variables d'environnement
Installations de volume
Volumes Cloud Storage
Volumes NFS
Volumes en mémoire
Environnement d'exécution
Aperçu
Sélectionner un environnement d'exécution
Vérifications d'état du conteneur
Requêtes HTTP/2
Secrets
Identité du service
Mettre à l'échelle
À propos de l'autoscaling des instances pour les services
Nombre maximal d'instances
À propos du nombre maximal d'instances pour les services
Configurer le nombre maximal d'instances
Nombre minimal d'instances
Scaling manuel
Metadata
Description
Libellés
Tags
Configurations de déploiement de la source
Environnements d'exécution de langage et images de base compatibles
Configurer les mises à jour automatiques des images de base
Variables d'environnement de compilation
Compte de service de compilation
Pools de nœuds de calcul de compilation
Appeler et déclencher des services
Appeler avec des requêtes HTTPS
Héberger une cible webhook
Streaming avec WebSockets
Aperçu
Tutoriel sur la création d'un service WebSocket Chat
Appeler de manière asynchrone
Appeler des services selon un calendrier
Créer un flux de travail
Appeler des services dans le cadre d'un workflow
Tutoriel sur la connexion d'une série de services Cloud Functions et Cloud Run
Exécuter des tâches asynchrones
Appeler un service à partir d'un abonnement push Pub/Sub
Déclencher un service à partir de Pub/Sub
Tutoriel sur l'intégration du traitement d'image dans l'exemple de journal Pub/Sub
Déclencher à partir d'événements
Créer des déclencheurs avec Eventarc
Déclencheurs Pub/Sub
Créer des déclencheurs Eventarc Pub/Sub
Déclencher des fonctions depuis Pub/Sub à l'aide d'Eventarc
Déclencher des fonctions à partir d'entrées de journal routées
Déclencheurs Cloud Storage
Créer des déclencheurs avec Cloud Storage
Déclencher des services depuis Cloud Storage à l'aide d'Eventarc
Déclencher des fonctions depuis Cloud Storage à l'aide d'Eventarc
Déclencheurs Firestore
Créer des déclencheurs avec Firestore
Déclencher des fonctions à partir d'événements dans une base de données Firestore
Se connecter à d'autres services avec gRPC
Bonnes pratiques
Conseils de développement généraux pour les services
Optimiser les services Java
Optimiser les services Python
Optimiser les services Node.js
Bonnes pratiques pour les tests de charge
Comprendre la redondance zonale
Bonnes pratiques concernant les fonctions
Aperçu
Activer les nouvelles tentatives d'exécution des fonctions pilotées par des événements
Exécuter les tâches du job jusqu'à leur achèvement
Créer des jobs
Exécuter des jobs
Exécuter des jobs
Exécuter des jobs planifiés
Exécuter des tâches planifiées dans un périmètre VPC SC
Exécuter des jobs à partir de Workflows
Configurer des jobs
Point d'entrée du conteneur
Limites de processeur
Limites de mémoire
GPU
Configuration du GPU
Bonnes pratiques concernant les GPU
Ajuster les LLM à l'aide de GPU avec des tâches Cloud Run
Exécuter une inférence par lot à l'aide de GPU avec des tâches Cloud Run
Variables d'environnement
Vérifications d'état du conteneur
Installations de volume
Volumes Cloud Storage
Volumes NFS
Volumes en mémoire
Autres systèmes de fichiers réseau
Libellés
Nombre maximal de nouvelles tentatives
Parallélisme
Secrets
Identité du service
Délai avant expiration de la tâche
Tags
Gérer les jobs
Afficher ou supprimer des jobs
Afficher ou arrêter des exécutions de jobs
Bonnes pratiques
Effectuer des tâches en arrière-plan continues
Déployer des pools de nœuds de calcul
Déployer des pools de nœuds de calcul
Déployer des pools de nœuds de calcul à partir du code source
Gérer les pools de nœuds de calcul
Afficher ou supprimer des pools de nœuds de calcul
Afficher ou supprimer des révisions de pools de nœuds de calcul
Configurer des pools de nœuds de calcul
Capacité
Limites de mémoire
Limites de processeur
GPU
Configuration du GPU
Bonnes pratiques concernant les GPU
Environnement
Conteneur et point d'entrée
Variables d'environnement
Installations de volume
Volumes Cloud Storage
Volumes NFS
Volumes en mémoire
Autres systèmes de fichiers réseau
Vérifications d'état du conteneur
Secrets
Identité du service
Nombre d'instances
Metadata
Description
Libellés
Tags
Effectuer un scaling basé sur des métriques externes
Autoscaler Kafka
Configurer la mise en réseau
Bonnes pratiques pour la mise en réseau Cloud Run
Configurer une mise en réseau privée
Envoyer du trafic vers le réseau VPC
Aperçu
Sortie VPC directe
Services et tâches à double pile
Migrer le connecteur VPC standard vers la sortie VPC directe
Connecteurs VPC
Envoyer du trafic vers un réseau VPC partagé
Aperçu
Sortie VPC directe
Migrer le connecteur de VPC partagé vers la sortie VPC directe
Connecteurs dans les projets de service
Connecteurs dans le projet hôte
Adresse IP sortante statique
Sécurité réseau
Restreindre l'entrée (services)
Utiliser VPC Service Controls (VPC SC)
Cloud Service Mesh
Sécurisé
Présentation de la sécurité
Authentifier les requêtes
Aperçu
Autoriser l'accès public
Audiences personnalisées
Authentifier les développeurs
Service à service
Authentifier les utilisateurs
Tutoriel sur l'authentification des utilisateurs finaux
Sécuriser vos ressources
Contrôle des accès avec IAM
Configurer l'IAP pour Cloud Run
Présentation de l'identité de service
Protéger les services avec Cloud Armor
Utiliser l'autorisation binaire
Utiliser la détection des menaces Cloud Run
Utiliser les clés de chiffrement gérées par le client
Gérer les contraintes personnalisées pour les projets
Afficher des insights sur la sécurité de la chaîne d'approvisionnement logicielle
Tutoriel sur les services Cloud Run sécurisés
Surveiller et journaliser
Présentation de la surveillance et de la journalisation
Afficher les métriques intégrées
Écrire des métriques Prometheus
Écrire des métriques OpenTelemetry
Journaliser et afficher les journaux
Journaux d'audit
Création de rapports d'erreur
Utiliser le traçage distribué pour les services
Migrer
Un service Web existant
Depuis App Engine
Depuis AWS Lambda
Contenus de Heroku
Depuis Cloud Foundry
Présentation de la migration
Choisir une stratégie conforme à l'OCI
Migrer vers des conteneurs OCI
Configuration de la migration
Exemple de migration : Spring Music
Depuis VMware Tanzu
Depuis une VM utilisant Migrate to Containers
Depuis Kubernetes
Vers GKE
Dépannage