Documentazione di Dataflow
Dataflow è un servizio gestito per l'esecuzione di un'ampia varietà di pattern di elaborazione dati. La documentazione di questo sito mostra come eseguire il deployment
delle pipeline di elaborazione dei dati batch e di streaming utilizzando
Dataflow, incluse le istruzioni per l'utilizzo delle funzionalità del servizio.
L'SDK Apache Beam è un modello di programmazione open source che consente di sviluppare pipeline batch e di streaming. Crea le pipeline con un programma Apache Beam e poi eseguile nel servizio Dataflow. La
documentazione di Apache Beam
fornisce informazioni concettuali approfondite e materiale di riferimento
per il modello di programmazione, gli SDK e altri runner di Apache Beam.
Per scoprire i concetti di base di Apache Beam, consulta il
tour di Beam e Beam Playground.
Il repository
Dataflow Cookbook fornisce anche pipeline pronte per l'avvio e autonome
e i casi d'uso più comuni di Dataflow.
Apache, Apache Beam, Beam, il logo Beam e la mascotte della lucciola Beam sono marchi registrati di Apache Software Foundation negli Stati Uniti e/o in altri paesi.
Inizia la tua proof of concept con 300 $ di credito gratuito
-
Accedi a Gemini 2.0 Flash Thinking
-
Utilizzo mensile gratuito dei prodotti più apprezzati, tra cui API di AI e BigQuery
-
Nessun addebito automatico, nessun impegno
Continua a esplorare con oltre 20 prodotti sempre gratis
Accedi a oltre 20 prodotti gratuiti per casi d'uso comuni, tra cui API AI, VM, data warehouse e altro ancora.
Caso d'uso
Casi d'uso
Esegui carichi di lavoro HPC altamente paralleli
Con Dataflow, puoi eseguire i carichi di lavoro altamente paralleli in un'unica pipeline, migliorando l'efficienza e semplificando la gestione del flusso di lavoro.
Streaming
Caso d'uso
Casi d'uso
Esegui l'inferenza con Dataflow ML
Dataflow ML ti consente di utilizzare Dataflow per eseguire il deployment e gestire pipeline di machine learning (ML) complete. Utilizza i modelli ML per eseguire l'inferenza locale e remota con pipeline batch e di streaming. Utilizza gli strumenti di elaborazione dei dati per prepararli per l'addestramento del modello ed elaborare i risultati dei modelli.
ML
Streaming
Caso d'uso
Casi d'uso
Crea una pipeline di streaming per l'e-commerce
Crea un'applicazione di esempio di e-commerce end-to-end che trasmette dati da un negozio online a BigQuery e Bigtable. L'applicazione di esempio illustra i casi d'uso comuni e le best practice per l'implementazione dell'analisi dei flussi di dati e dell'intelligenza artificiale (AI) in tempo reale.
ecommerce
Streaming
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2025-09-09 UTC.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-09 UTC."],[[["\u003cp\u003eDataflow is a managed service for executing batch and streaming data processing pipelines, with comprehensive documentation available on deployment and feature usage.\u003c/p\u003e\n"],["\u003cp\u003eThe Apache Beam SDK, an open-source programming model, is used to create pipelines that can be run on the Dataflow service, and its documentation can be found on the Apache website.\u003c/p\u003e\n"],["\u003cp\u003eVarious guides, references, and resources are provided, including quickstarts for creating pipelines in Java, Python, and Go, along with troubleshooting information.\u003c/p\u003e\n"],["\u003cp\u003eDataflow supports highly parallel workloads, machine learning inference, and the creation of ecommerce streaming pipelines, which are detailed in use case examples.\u003c/p\u003e\n"],["\u003cp\u003eThe documentation provides access to code samples, pricing information, quotas, release notes, support and billing help, all relevant to the managed service.\u003c/p\u003e\n"]]],[],null,["# Dataflow documentation\n======================\n\n[Read product documentation](/dataflow/docs/overview)\nDataflow is a managed service for executing a wide variety of data\nprocessing patterns. The documentation on this site shows you how to deploy\nyour batch and streaming data processing pipelines using\nDataflow, including directions for using service features.\n\n\nThe Apache Beam SDK\nis an open source programming model that enables you to develop both batch\nand streaming pipelines. You create your pipelines with an Apache Beam\nprogram and then run them on the Dataflow service. The\n[Apache Beam\ndocumentation](https://beam.apache.org/documentation/) provides in-depth conceptual information and reference\nmaterial for the Apache Beam programming model, SDKs, and other runners.\n\nTo learn basic Apache Beam concepts, see the [Tour of Beam](https://tour.beam.apache.org/) and [Beam Playground](https://play.beam.apache.org/).\nThe [Dataflow Cookbook](https://github.com/GoogleCloudPlatform/dataflow-cookbook) repository also provides ready-to-launch and self-contained pipelines\nand the most common Dataflow use cases. \n*Apache, Apache Beam, Beam, the\nBeam logo, and the Beam firefly mascot are registered trademarks of The Apache Software Foundation in the\nUnited States and/or other countries.* [Get started for free](https://console.cloud.google.com/freetrial) \n\n#### Start your proof of concept with $300 in free credit\n\n- Get access to Gemini 2.0 Flash Thinking\n- Free monthly usage of popular products, including AI APIs and BigQuery\n- No automatic charges, no commitment \n[View free product offers](/free/docs/free-cloud-features#free-tier) \n\n#### Keep exploring with 20+ always-free products\n\n\nAccess 20+ free products for common use cases, including AI APIs, VMs, data warehouses,\nand more.\n\nDocumentation resources\n-----------------------\n\nFind quickstarts and guides, review key references, and get help with common issues. \nformat_list_numbered\n\n### Guides\n\n-\n\n [Create a Dataflow pipeline using Java](/dataflow/docs/quickstarts/create-pipeline-java)\n\n-\n\n [Create a Dataflow pipeline using Python](/dataflow/docs/quickstarts/create-pipeline-python)\n\n-\n\n [Create a Dataflow pipeline using Go](/dataflow/docs/quickstarts/create-pipeline-go)\n\n-\n\n [Create a streaming pipeline using a Dataflow template](/dataflow/docs/quickstarts/create-streaming-pipeline-template)\n\n-\n\n [Build and run a Flex Template](/dataflow/docs/guides/templates/using-flex-templates)\n\n-\n\n [Deploy Dataflow pipelines](/dataflow/docs/guides/deploying-a-pipeline)\n\n-\n\n [Develop with notebooks](/dataflow/docs/guides/interactive-pipeline-development)\n\n-\n\n [Troubleshooting and debugging](/dataflow/docs/guides/troubleshooting-your-pipeline)\n\nfind_in_page\n\n### Reference\n\n-\n\n [Install the Apache Beam SDK](/dataflow/docs/guides/installing-beam-sdk)\n\n-\n\n [Java SDK](https://beam.apache.org/documentation/sdks/javadoc/current/)\n\n-\n\n [Python SDK](https://beam.apache.org/documentation/sdks/pydoc/current/)\n\n-\n\n [Go SDK](https://pkg.go.dev/github.com/apache/beam/sdks/v2/go/pkg/beam)\n\n-\n\n [SDK version support status](/dataflow/docs/support/sdk-version-support-status)\n\n-\n\n [REST API](/dataflow/docs/reference/rest)\n\n-\n\n [gcloud command-line functions](/sdk/gcloud/reference/dataflow)\n\n-\n\n [Google-provided templates](/dataflow/docs/concepts/dataflow-templates)\n\ninfo\n\n### Resources\n\n-\n\n [Dataflow code samples](/dataflow/docs/samples)\n\n-\n\n [Pricing](/dataflow/pricing)\n\n-\n\n [Quotas and limits](/dataflow/quotas)\n\n-\n\n [Release Notes](/dataflow/docs/release-notes)\n\n-\n\n [Getting support](/dataflow/docs/support/getting-support)\n\n-\n\n [Billing questions](/dataflow/docs/support/billing-questions)\n\nRelated resources\n-----------------\n\nExplore self-paced training, use cases, reference architectures, and code samples with examples of how to use and connect Google Cloud services. Use case \nUse cases\n\n### Run HPC highly parallel workloads\n\n\nWith Dataflow, you can run your highly parallel workloads in a single pipeline, improving efficiency and making your workflow easier to manage.\n\nStreaming\n\n\u003cbr /\u003e\n\n[Learn more](/dataflow/docs/hpc-ep) \nUse case \nUse cases\n\n### Run inference with Dataflow ML\n\n\nDataflow ML lets you use Dataflow to deploy and manage complete machine learning (ML) pipelines. Use ML models to do local and remote inference with batch and streaming pipelines. Use data processing tools to prepare your data for model training and to process the results of the models.\n\nML Streaming\n\n\u003cbr /\u003e\n\n[Learn more](/dataflow/docs/machine-learning) \nUse case \nUse cases\n\n### Create an ecommerce streaming pipeline\n\n\nBuild an end-to-end ecommerce sample application that streams data from a webstore to BigQuery and Bigtable. The sample application illustrates common use cases and best practices for implementing streaming data analytics and real-time artificial intelligence (AI).\n\necommerce Streaming\n\n\u003cbr /\u003e\n\n[Learn more](/dataflow/docs/tutorials/ecommerce-retail-pipeline)\n\nRelated videos\n--------------"]]