Zum Hauptinhalt springen
Dokumentation
Technologiebereiche
close
KI und ML
Anwendungsentwicklung
Anwendungshosting
Compute
Datenanalyse und Pipelines
Datenbanken
Verteilt, Hybrid und Multi-Cloud
Generative KI
Branchenlösungen
Netzwerk
Beobachtbarkeit und Monitoring
Sicherheit
Storage
Produktübergreifende Tools
close
Zugriffs- und Ressourcenverwaltung
Kosten- und Nutzungsmanagement
Google Cloud SDK, Sprachen, Frameworks und Tools
Infrastruktur als Code
Migration
Verwandte Websites
close
Google Cloud-Startseite
Kostenlose Testversion und kostenlose Stufe
Architecture Center
Blog
Vertrieb kontaktieren
Google Cloud Developer Center
Google Developer Center
Google Cloud Marketplace
Google Cloud Marketplace-Dokumentation
Google Cloud Skills Boost
Google Cloud Solution Center
Google Cloud-Support
Google Cloud Tech-YouTube-Kanal
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Anmelden
BigQuery
Leitfäden
Referenzen
Beispiele
Ressourcen
Kontakt
Jetzt kostenlos testen
Dokumentation
Leitfäden
Referenzen
Beispiele
Ressourcen
Technologiebereiche
Mehr
Produktübergreifende Tools
Mehr
Verwandte Websites
Mehr
Console
Kontakt
Jetzt kostenlos testen
Erste Schritte
Produktübersicht
BigQuery mit der Sandbox ausprobieren
Los gehts
Konsole ausprobieren
Daten laden und abfragen
DataFrames ausprobieren
Befehlszeilentool testen
Daten laden und abfragen
Clientbibliotheken testen
BigQuery-Tools entdecken
Die Console entdecken
Befehlszeilentool entdecken
Migrieren
Übersicht
Data Warehouse migrieren
Einführung in BigQuery Migration Service
Migrationsbewertung
Schema und Daten migrieren
Datenpipelines migrieren
SQL migrieren
SQL-Abfragen interaktiv übersetzen
SQL-Abfragen mit der API übersetzen
SQL-Abfragen im Batch übersetzen
Metadaten für Übersetzung und Bewertung generieren
SQL-Übersetzungen mit YAML transformieren
SQL-Objektnamen für die Batchübersetzung zuordnen
Migrationsleitfäden
Amazon Redshift
Übersicht über die Migration
Amazon Redshift-Schema und -Daten migrieren
Amazon Redshift-Schema und -Daten migrieren, wenn eine VPC verwendet wird
SQL-Übersetzungsreferenz
Apache Hadoop
Metadaten aus Hadoop für die Migration extrahieren
Berechtigungen aus Hadoop migrieren
Übertragung eines HDFS-Data Lakes planen
Apache Hive
Hive-Migration – Übersicht
Apache Hive-Schema und -Daten migrieren
SQL-Übersetzungsreferenz
IBM Netezza
Von IBM Netezza migrieren
SQL-Übersetzungsreferenz
Oracle
Migrationsanleitung
SQL-Übersetzungsreferenz
Snowflake
Einführung
Snowflake-Übertragung planen
Übersicht über die Migration
SQL-Übersetzungsreferenz
Teradata
Einführung
Übersicht über die Migration
Teradata-Schema und -Daten migrieren
Anleitung für die Migration
SQL-Übersetzungsreferenz
Design
Ressourcen organisieren
API-Abhängigkeiten
Versionen verstehen
Datasets
Einführung
Datasets erstellen
Datasets auflisten
Regionenübergreifende Replikation
Verwaltete Notfallwiederherstellung
Zur verwalteten Notfallwiederherstellung migrieren
Datenaufbewahrung für Datasets
Tabellen
BigQuery-Tabellen
Einführung
Tabellen erstellen und verwenden
BigLake Iceberg-Tabellen in BigQuery
Tabellenschemas angeben
Schema angeben
Verschachtelte und wiederkehrende Spalten angeben
Standardspaltenwerte angeben
ObjectRef-Werte angeben
Mit partitionierten Tabellen segmentieren
Einführung
Partitionierte Tabellen erstellen
Partitionierte Tabellen verwalten
Partitionierte Tabellen abfragen
Mit geclusterten Tabellen optimieren
Einführung
Geclusterte Tabellen erstellen
Geclusterte Tabellen verwalten
Geclusterte Tabellen abfragen
Metadatenindexierung verwenden
Externe Tabellen
Einführung
Typen von externen Tabellen
Externe BigLake-Tabellen
BigQuery Omni
Objekttabellen
Externe Tabellen
Externe Tabellendefinitionsdatei
Extern partitionierte Daten
Metadaten-Caching verwenden
Externe Amazon S3 BigLake-Tabellen
Externe Apache Iceberg-Tabellen
BigLake-Tabellen in Azure Blob Storage
Externe Bigtable-Tabelle
Externe BigLake-Tabellen für Cloud Storage
Cloud Storage-Objekttabellen
Externe Cloud Storage-Tabellen
Delta Lake BigLake-Tabellen
Externe Google Drive-Tabellen
Aufrufe
Logische Ansichten
Einführung
Logische Ansichten erstellen
Materialisierte Ansichten
Einführung
Materialisierte Ansichten erstellen
Alle Ansichtstypen verwalten
Informationen zu Ansichten abrufen
Ansichten verwalten
Routinen
Einführung
Routinen verwalten
Benutzerdefinierte Funktionen
Benutzerdefinierte Funktionen in Python
Benutzerdefinierte Aggregatfunktionen
Tabellenfunktionen
Remote-Funktionen
Gespeicherte SQL-Prozeduren
Gespeicherte Prozeduren für Apache Spark
Objekttabellen mit Remote-Funktionen analysieren
Remote-Funktionen und Translation API – Anleitung
Verbindungen
Einführung
Amazon S3-Verbindung
Apache Spark-Verbindung
Azure Blob Storage-Verbindung
Cloud-Ressourcenverbindung
SpannerConnection
Cloud SQL-Verbindung
AlloyDB-Verbindung
SAP Datasphere-Verbindung
Verbindungen verwalten
Verbindungen mit Netzwerkanhängen konfigurieren
Standardverbindungen
Indexe
Suchindexe
Einführung
Suchindexe verwalten
Vektorindexe
Einführung
Vektorindexe verwalten
Laden, transformieren und exportieren
Einführung
Daten laden
Einführung
Speicheroptionen
BigQuery Data Transfer Service
Einführung
Speicherort und Übertragung von Daten
Übertragungen autorisieren
Übertragungen aktivieren
Netzwerkverbindungen einrichten
Zugriff auf Cloud SQL-Instanzen
AWS-VPN und Netzwerkanhänge
Azure-VPN und Netzwerkanhänge
Übertragungen verwalten
Benachrichtigungen zu Übertragungsausführungen
Fehlerbehebung bei Übertragungskonfigurationen
Dienstkonten verwenden
Drittanbieter-Übertragungen verwenden
Benutzerdefinierte Organisationsrichtlinien verwenden
Änderungsprotokoll der Datenquelle
Ereignisgesteuerte Übertragungen
Anleitungen zu Datenübertragungen
Amazon S3
Einführung
Übertragungen planen
Laufzeitparameter übertragen
Azure Blob Storage
Einführung
Übertragungen planen
Laufzeitparameter übertragen
Campaign Manager
Übertragungen planen
Berichtstransformation
Cloud Storage
Einführung
Übertragungen planen
Laufzeitparameter übertragen
Comparison Shopping Service Center
Einführung
Übertragungen planen
Übertragungsberichtsschema
Display & Video 360
Übertragungen planen
Berichtstransformation
Facebook Ads
Übertragungen planen
Berichtstransformation
Google Ad Manager
Übertragungen planen
Berichtstransformation
Google Ads
Übertragungen planen
Berichtstransformation
Google Analytics 4
Übertragungen planen
Berichtstransformation
Google Merchant Center
Einführung
Übertragungen planen
Daten abfragen
Migrationsleitfäden
Bestseller
Wettbewerbsfähigkeit von Preisen
Übertragungsberichtsschema
Tabelle mit Bestsellern
Tabelle „Lokales Inventar“
Leistungstabelle
Preisvergleichetabelle
Tabelle zur Wettbewerbsfähigkeit von Preisen
Tabelle mit Preisstatistiken
Produktinventartabelle
Produkt-Targeting-Tabelle
Produkttabelle
Regionale Inventartabelle
Tabelle „Top-Marken“
Tabelle „Top-Produkte“
Google Play
Übertragungen planen
Berichtstransformation übertragen
MySQL
Übertragungen planen
Oracle
Übertragungen planen
PostgreSQL
Übertragungen planen
Salesforce
Übertragungen planen
Salesforce Marketing Cloud
Übertragungen planen
Search Ads 360
Übertragungen planen
Berichtstransformation übertragen
Migrationsanleitung
ServiceNow
Übertragungen planen
YouTube-Kanal
Übertragungen planen
Berichtstransformation übertragen
YouTube-Rechteinhaber
Übertragungen planen
Berichtstransformation übertragen
Daten im Batch laden
Einführung
Schemas automatisch erkennen
Avro-Daten laden
Parquet-Daten laden
ORC-Daten laden
CSV-Daten laden
JSON-Daten laden
Extern partitionierte Daten laden
Daten aus einem Datastore-Export laden
Daten aus einem Firestore-Export laden
Daten mit der Storage Write API laden
Daten in partitionierte Tabellen laden
Daten mit der Storage API schreiben und lesen
Daten mit der Storage Read API lesen
Daten mit der Storage Write API schreiben
Einführung
Daten mit der Storage Write API streamen
Daten mit der Storage Write API im Batch laden
Best Practices
Unterstützte Protokollzwischenspeicher- und Arrow-Datentypen
Updates mit Change Data Capture streamen
Legacy-Streaming-API verwenden
Daten aus anderen Google-Diensten laden
Cloud Storage-Daten finden und katalogisieren
Daten mit Drittanbieteranwendungen laden
Daten mit cloudübergreifenden Vorgängen laden
Daten transformieren
Einführung
Daten vorbereiten
Einführung
Daten mit Gemini vorbereiten
Mit DML transformieren
Daten in partitionierten Tabellen transformieren
Änderungsverlauf verwenden
Daten mit Pipelines transformieren
Einführung
Pipelines erstellen
Daten exportieren
Einführung
Abfrageergebnisse exportieren
Nach Cloud Storage exportieren
Nach Bigtable exportieren
In Spanner exportieren
Nach Pub/Sub exportieren
Als Protobuf-Spalten exportieren
Analysieren
Einführung
Nach Ressourcen suchen
Meine Daten erkunden
Abfragen mit dem Tabellen-Explorer erstellen
Datenprofil erstellen:
Datenstatistiken generieren
Mit einem Data Canvas analysieren
Daten mit Gemini analysieren
BigQuery-Daten abfragen
Abfrage ausführen
Abfragen mit Gemini schreiben
Abfrageergebnisse schreiben
Daten mit SQL abfragen
Einführung
Arrays
JSON-Daten
Abfragen mit mehreren Anweisungen
Parametrisierte Abfragen
Pipe-Syntax
Daten mithilfe der Pipe-Syntax analysieren
Rekursive CTEs
Sketche
Tabellenstichproben
Zeitreihe
Transaktionen
Platzhaltertabellen
Raumbezogene Analysen verwenden
Einführung
Mit raumbezogenen Analysen arbeiten
Mit Rasterdaten arbeiten
Best Practices für räumliche Analysen
Geodaten darstellen
Grid-Systeme für räumliche Analysen
Syntaxreferenz für raumbezogene Analysen
Anleitungen für raumbezogene Analysen
Erste Schritte mit raumbezogenen Analysen
Verwenden Sie raumbezogene Analysen, um den Weg eines Hurrikans darzustellen
Daten aus raumbezogenen Analysen in einem Colab-Notebook visualisieren
Rasterdaten zur Temperaturanalyse verwenden
Suchdaten
Indexierte Daten durchsuchen
Mit Textanalysatoren arbeiten
Auf Verlaufsdaten zugreifen
Mit Abfragen arbeiten
Suchanfragen speichern
Einführung
Gespeicherte Abfragen erstellen
Kontinuierliche Abfragen
Einführung
Kontinuierliche Abfragen erstellen
Im Cache gespeicherte Ergebnisse verwenden
Sitzungen verwenden
Einführung
Mit Sitzungen arbeiten
Abfragen in Sitzungen schreiben
Fehlerbehebung bei Abfragen
Abfragen optimieren
Einführung
Erläuterung eines Abfrageplans verwenden
Statistiken zur Abfrageleistung abrufen
Abfrageleistung optimieren
Verlaufsbasierte Optimierungen verwenden
Speicher für die Abfrageleistung optimieren
Materialisierte Ansichten verwenden
BI Engine verwenden
Verschachtelte und wiederkehrende Daten verwenden
Funktionen optimieren
Erweiterte Laufzeit verwenden
Primär- und Fremdschlüssel verwenden
Multimodale Daten analysieren
Einführung
Multimodale Daten mit SQL- und Python-UDFs analysieren
Multimodale Daten mit BigQuery DataFrames analysieren
Externe Datenquellen abfragen
Open-Source-Metadaten mit BigLake Metastore verwalten
Einführung
Mit Tabellen in BigQuery verwenden
Mit Dataproc verwenden
Mit Serverless for Apache Spark verwenden
Mit Spark-gespeicherten Prozeduren verwenden
Metastore-Ressourcen verwalten
Tabellen in Spark erstellen und abfragen
Mit zusätzlichen Funktionen anpassen
Mit dem Iceberg-REST-Katalog verwenden
Optimale Daten- und Metadatenformate für Lakehouses
Externe Tabellen und Datasets verwenden
Amazon S3-Daten
Amazon S3-Daten abfragen
Abfrageergebnisse nach Amazon S3 exportieren
Apache Iceberg-Daten abfragen
Offene Tabellenformate mit Manifesten abfragen
Azure Blob Storage-Daten
Azure Blob Storage-Daten abfragen
Abfrageergebnisse in Azure Blob-Speicher exportieren
Cloud Bigtable-Daten abfragen
Cloud Storage-Daten
Cloud Storage-Daten in BigLake-Tabellen abfragen
Cloud Storage-Daten in externen Tabellen abfragen
Mit Salesforce Data Cloud-Daten arbeiten
Google Drive-Daten abfragen
Föderierte AWS Glue-Datasets erstellen
Externe Spanner-Datasets erstellen
Föderierte Abfragen ausführen
Föderierte Abfragen
SAP Datasphere-Daten abfragen
AlloyDB-Daten abfragen
Spanner-Daten abfragen
Cloud SQL-Daten abfragen
Notebooks verwenden
Einführung
Colab-Notebooks verwenden
Einführung
Notebooks erstellen
Abfrageergebnisse ansehen
Spark verwenden
Data Science Agent in Colab verwenden
DataFrames verwenden