Langsung ke konten utama
Google Cloud Documentation
Area teknologi
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Pipeline dan analisis data
  • Database
  • Terdistribusi, hybrid, dan multicloud
  • AI Generatif
  • Solusi industri
  • Jaringan
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
Alat cross product
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Infrastruktur sebagai kode
  • Migrasi
  • SDK, bahasa, framework, dan alat
/
Konsol
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Masuk
  • BigQuery
Mulai gratis
Ringkasan Panduan Referensi Contoh Referensi
Google Cloud Documentation
  • Area teknologi
    • Lainnya
    • Ringkasan
    • Panduan
    • Referensi
    • Contoh
    • Referensi
  • Alat cross product
    • Lainnya
  • Konsol
  • Temukan
  • Ringkasan produk
  • Mencoba BigQuery menggunakan sandbox
  • Mulai
  • Menggunakan konsol
    • Mempelajari konsol
    • Memuat dan membuat kueri data
    • Membuat pemesanan
    • Mencoba DataFrames
  • Menggunakan alat CLI bq
  • Menggunakan library klien
  • Desain
  • Mengatur resource
  • Dependensi API
  • Memahami edisi
  • Set data
    • Pengantar
    • Membuat set data
    • Mencantumkan set data
    • Replikasi lintas-region
    • Pemulihan dari bencana yang dikelola
    • Bermigrasi ke pemulihan dari bencana yang terkelola
    • Retensi data set data
  • Tabel
    • Tabel BigQuery
      • Pengantar
      • Membuat dan menggunakan tabel
      • Menentukan skema tabel
        • Menetapkan skema
        • Menentukan kolom bertingkat dan berulang
        • Menentukan nilai kolom default
        • Menentukan nilai ObjectRef
      • Segmen dengan tabel berpartisi
        • Pengantar
        • Membuat tabel berpartisi
        • Mengelola tabel berpartisi
        • Mengkueri tabel berpartisi
      • Mengoptimalkan dengan tabel yang dikelompokkan
        • Pengantar
        • Membuat tabel yang dikelompokkan
        • Mengelola tabel yang dikelompokkan
        • Membuat kueri tabel yang dikelompokkan
      • Menggunakan pengindeksan metadata
    • Tabel eksternal
      • Pengantar
      • Jenis tabel eksternal
        • Tabel eksternal BigLake
        • BigQuery Omni
        • Tabel objek
        • Tabel eksternal
      • File definisi tabel eksternal
      • Data yang dipartisi secara eksternal
      • Menggunakan cache metadata
      • Tabel eksternal BigLake Amazon S3
      • Tabel eksternal Apache Iceberg
      • Tabel BigLake Blob Azure Storage
      • Tabel eksternal Bigtable
      • Tabel eksternal BigLake untuk Cloud Storage
      • Tabel objek Cloud Storage
      • Tabel eksternal Cloud Storage
      • Tabel BigLake Delta Lake
      • Tabel eksternal Google Drive
  • Penayangan
    • Tampilan logis
      • Pengantar
      • Membuat tampilan logis
    • Tampilan terwujud
      • Pengantar
      • Membuat tampilan terwujud
    • Mengelola semua jenis tampilan
      • Mendapatkan informasi tentang tampilan
      • Mengelola tampilan
  • Rutinitas
    • Pengantar
    • Mengelola rutinitas
    • Fungsi yang ditentukan pengguna (UDF)
    • Fungsi yang ditentukan pengguna di Python
    • Fungsi agregat yang ditentukan pengguna
    • Fungsi tabel
    • Fungsi jarak jauh
    • Prosedur tersimpan SQL
    • Prosedur tersimpan untuk Apache Spark
    • Menganalisis tabel objek menggunakan fungsi jarak jauh
    • Fungsi jarak jauh dan tutorial Translation API
  • Koneksi
    • Pengantar
    • Koneksi Amazon S3
    • Koneksi Apache Spark
    • Koneksi Azure Blob Storage
    • Koneksi resource cloud
    • Koneksi Spanner
    • Koneksi Cloud SQL
    • Koneksi AlloyDB
    • Koneksi SAP Datasphere
    • Mengelola koneksi
    • Mengonfigurasi koneksi dengan lampiran jaringan
    • Koneksi default
  • Indeks
    • Indeks penelusuran
      • Pengantar
      • Mengelola indeks penelusuran
    • Indeks vektor
      • Pengantar
      • Mengelola indeks vektor
  • Memuat, mentransformasi, dan mengekspor
  • Pengantar
  • Menggunakan Agen Data Engineering untuk membangun pipeline data
  • Migrasikan data
    • Pengantar
    • BigQuery Migration Service
    • Penilaian migrasi
    • Memigrasikan skema dan data
    • Memigrasikan pipeline data
    • Menggunakan kebijakan organisasi kustom
    • Memigrasikan SQL
      • Menerjemahkan kueri SQL secara interaktif
      • Menerjemahkan kueri SQL menggunakan API
      • Menerjemahkan kueri SQL dalam batch
      • Membuat metadata untuk terjemahan dan penilaian
      • Mengubah terjemahan SQL dengan YAML
      • Memetakan nama objek SQL untuk terjemahan batch
  • Muat data
    • Pengantar
    • Ringkasan penyimpanan
    • BigQuery Data Transfer Service
      • Pengantar
      • Lokasi dan transfer data
      • Mengizinkan transfer
      • Mengaktifkan transfer
      • Menyiapkan koneksi jaringan
        • Akses instance Cloud SQL
        • AWS VPN dan lampiran jaringan
        • Azure VPN dan lampiran jaringan
      • Mengelola transfer
      • Mentransfer notifikasi operasi
      • Memecahkan masalah konfigurasi transfer
      • Menggunakan akun layanan
      • Menggunakan transfer pihak ketiga
      • Menggunakan kebijakan organisasi kustom
      • Log perubahan sumber data
      • Transfer berdasarkan peristiwa
    • Memuat data secara kelompok
      • Pengantar
      • Mendeteksi skema secara otomatis
      • Memuat data Avro
      • Memuat data Parquet
      • Memuat data ORC
      • Memuat data CSV
      • Memuat data JSON
      • Memuat data berpartisi secara eksternal
      • Memuat data dari ekspor Datastore
      • Memuat data dari ekspor Firestore
      • Memuat data menggunakan Storage Write API
      • Memuat data ke dalam tabel berpartisi
    • Menuliskan dan membaca data dengan Storage API
      • Membaca data dengan Storage Read API
      • Menuliskan data dengan Storage Write API
        • Pengantar
        • Mengalirkan data dengan Storage Write API
        • Memuat data secara kelompok dengan Storage Write API
        • Praktik terbaik
        • Jenis data Arrow dan buffering protokol yang didukung
        • Mengalirkan data pembaruan dengan pengambilan data perubahan
        • Menggunakan API streaming lama
    • Memuat data dari layanan Google lainnya
    • Menemukan dan membuat katalog data Cloud Storage
    • Memuat data menggunakan aplikasi pihak ketiga
    • Memuat data menggunakan operasi lintas-cloud
    • Mengoptimalkan tugas pemuatan
  • Mentransformasi data
    • Pengantar
    • Menyiapkan data
      • Pengantar
      • Menyiapkan data dengan Gemini
    • Transformasi dengan DML
    • Mengubah data dalam tabel berpartisi
    • Menggunakan histori perubahan
    • Mentransformasi data dengan pipeline
      • Pengantar
      • Membuat pipeline
  • Ekspor data
    • Pengantar
    • Mengekspor hasil kueri
    • Ekspor ke Cloud Storage
    • Mengekspor ke Bigtable
    • Mengekspor ke Spanner
    • Ekspor ke Pub/Sub
    • Mengekspor sebagai kolom Protobuf
  • Tutorial ELT
    • Membangun ELT untuk data analisis pemasaran
  • Analisis
  • Pengantar
  • Telusuri referensi
  • Jelajahi data Anda
    • Membuat kueri dengan penjelajah tabel
    • Membuat profil data Anda
    • Menghasilkan insight data
    • Menganalisis dengan kanvas data
    • Menganalisis data dengan Gemini
    • Menganalisis data dengan Gemini CLI
  • Membuat kueri data BigQuery
    • Jalankan kueri
    • Menulis kueri dengan Gemini
    • Menulis hasil kueri
    • Membuat kueri data dengan SQL
      • Pengantar
      • Array
      • Data JSON
      • Kueri multi-pernyataan
      • Kueri berparameter
      • Sintaksis pipa
      • Menganalisis data menggunakan sintaksis pipe
      • CTE Rekursif
      • Sketsa
      • Pengambilan sampel tabel
      • Deret waktu
      • Transaksi
      • Tabel karakter pengganti
    • Menggunakan analisis geospasial
      • Pengantar
      • Menggunakan analisis geospasial
      • Bekerja dengan data raster
      • Praktik terbaik untuk analisis spasial
      • Memvisualisasikan data geospasial
      • Sistem petak untuk analisis spasial
      • Referensi sintaksis analisis geospasial
      • Tutorial analisis geospasial
        • Memulai dengan analisis geospasial
        • Menggunakan analisis geospasial untuk merencanakan jalur badai
        • Memvisualisasikan data analisis geospasial dalam notebook Colab
        • Menggunakan data raster untuk menganalisis suhu
    • Data penelusuran
      • Menelusuri data yang diindeks
      • Bekerja dengan penganalisis teks
    • Mengakses data historis
  • Menggunakan kueri
    • Menyimpan kueri
      • Pengantar
      • Membuat kueri tersimpan
    • Kueri berkelanjutan
      • Pengantar
      • Membuat kueri berkelanjutan
    • Gunakan hasil yang disimpan dalam cache
    • Menggunakan sesi
      • Pengantar
      • Mengerjakan sesi
      • Menulis kueri dalam sesi
    • Memecahkan masalah kueri
    • Mengoptimalkan kueri
      • Pengantar
      • Menggunakan penjelasan rencana kueri
      • Mendapatkan insight performa kueri
      • Mengoptimalkan komputasi kueri
      • Menggunakan pengoptimalan berbasis histori
      • Mengoptimalkan penyimpanan untuk performa kueri
      • Menggunakan tampilan terwujud
      • Menggunakan BI Engine
      • Menggunakan data bertingkat dan berulang
      • Mengoptimalkan fungsi
      • Menggunakan runtime lanjutan
      • Menggunakan kunci utama dan kunci asing
    • Memberi nomor halaman dengan BigQuery API
  • Menganalisis data multimodal
    • Pengantar
    • Menganalisis data multimodal dengan UDF SQL dan Python
    • Menganalisis data multimodal dengan DataFrames BigQuery
  • Menganalisis data dengan agen data
    • Ringkasan
    • Membuat agen data
    • Menganalisis data dengan percakapan
  • Membuat kueri sumber data eksternal
    • Menggunakan tabel dan set data eksternal
      • Data Amazon S3
        • Membuat kueri data Amazon S3
        • Mengekspor hasil kueri ke Amazon S3
      • Membuat kueri data Apache Iceberg
      • Membuat kueri format tabel terbuka dengan manifes
      • Data Azure Blob Storage
        • Membuat kueri data Azure Blob Storage
        • Mengekspor hasil kueri ke Azure Blob Storage
      • Membuat kueri data Cloud Bigtable
      • Data Cloud Storage
        • Membuat kueri data Cloud Storage dalam tabel BigLake
        • Membuat kueri data Cloud Storage dalam tabel eksternal
      • Bekerja dengan data Salesforce Data Cloud
      • Membuat kueri data Google Drive
      • Membuat set data gabungan AWS Glue
      • Membuat set data eksternal Spanner
    • Menjalankan kueri gabungan
      • Kueri gabungan
      • Membuat kueri data SAP Datasphere
      • Membuat kueri data AlloyDB
      • Membuat kueri data Spanner
      • Membuat kueri data Cloud SQL
  • Menggunakan notebook
    • Pengantar
    • Menggunakan notebook Colab
      • Pengantar
      • Membuat notebook
      • Menjelajahi hasil kueri
      • Memvisualisasikan hasil kueri
      • Menggunakan Spark
      • Menggunakan Agen Data Science Colab
    • Menggunakan DataFrame
      • Pengantar
      • Menggunakan DataFrame
      • Menggunakan sistem jenis data
      • Mengelola sesi dan I/O
      • Memvisualisasikan grafik
      • Menggunakan DataFrame di dbt
      • Optimalkan performa
    • Menggunakan notebook Jupyter
      • Menggunakan plugin BigQuery JupyterLab
    • Menggunakan library Python open source
  • Menggunakan analisis dan alat BI
    • Pengantar
    • Menggunakan Sheet yang Terhubung
    • Menggunakan Tableau Desktop
    • Menggunakan Looker
    • Menggunakan Looker Studio
    • Menggunakan alat pihak ketiga
    • Google Cloud Ready - BigQuery
      • Ringkasan
      • Partner
  • BigQuery AI
  • Pengantar
  • Fungsi AI generatif
    • Ringkasan
    • Perjalanan pengguna menyeluruh untuk model AI generatif
    • Pilih fungsi pembuatan teks
    • Menetapkan izin untuk fungsi AI generatif
    • Tutorial
      • Buat teks
        • Membuat teks menggunakan AI.GENERATE_TEXT dan Gemini
        • Membuat teks menggunakan AI.GENERATE_TEXT dan Gemma
        • Membuat teks menggunakan AI.GENERATE_TEXT dan model yang didukung
        • Membuat teks menggunakan AI.GENERATE
        • Menangani error kuota dengan memanggil ML.GENERATE_TEXT secara berulang
        • Menganalisis gambar dengan model Gemini
        • Melakukan analisis semantik dengan fungsi AI terkelola
        • Menyesuaikan model pembuatan teks
          • Menyesuaikan model menggunakan data Anda
          • Menggunakan penyesuaian dan evaluasi untuk meningkatkan performa model
      • Membuat data terstruktur
        • Membuat data terstruktur
  • Embedding dan penelusuran vektor
    • Ringkasan
    • Mengotomatiskan pembuatan embedding
    • Tutorial
      • Membuat embedding
        • Membuat embedding teks menggunakan LLM
        • Membuat embedding teks menggunakan model terbuka
        • Membuat embedding gambar menggunakan LLM
        • Membuat embedding video menggunakan LLM
        • Menangani error kuota dengan memanggil ML.GENERATE_EMBEDDING secara berulang
        • Membuat dan menelusuri embedding multimodal
        • Membuat embedding teks menggunakan model TensorFlow yang telah dilatih sebelumnya
        • Membuat embedding dengan model transformer dalam format ONNX
      • Penelusuran vektor
        • Menelusuri embedding dengan penelusuran vektor
        • Melakukan penelusuran semantik dan retrieval-augmented generation
  • Fungsi Cloud AI API
    • Ringkasan
    • Pilih fungsi natural language processing
    • Pilih fungsi pemrosesan dokumen
    • Tutorial
      • Natural language processing
        • Memahami teks
        • Terjemahkan teks
      • Pemrosesan dokumen
        • Memproses dokumen
        • Mengurai PDF dalam pipeline retrieval-augmented generation
      • Pengenalan ucapan
        • Mentranskripsikan file audio
      • Computer vision
        • Menganotasi gambar
        • Menjalankan inferensi pada data gambar
        • Menganalisis gambar dengan model klasifikasi yang diimpor
        • Menganalisis gambar dengan model vektor fitur yang diimpor
  • AI Pendukung
    • Ringkasan Gemini di BigQuery
    • Menyiapkan Gemini di BigQuery
    • Keamanan dan privasi
  • Machine learning
    • Pengantar
    • Perjalanan pengguna menyeluruh untuk model ML
    • Perjalanan pengguna menyeluruh untuk model yang diimpor
    • Model ML dan MLOps
      • Pembuatan model
      • Rekayasa dan pengelolaan fitur
        • Ringkasan pra-pemrosesan fitur
        • Jenis fitur input yang didukung
        • Pra-pemrosesan otomatis
        • Pra-pemrosesan manual
        • Penyajian fitur
        • Melakukan rekayasa fitur dengan klausa TRANSFORM
      • Ringkasan penyesuaian hyperparameter
      • Ringkasan evaluasi model
      • Ringkasan inferensi model
      • Ringkasan Explainable AI
      • Ringkasan bobot model
      • Ringkasan pipeline ML
      • Ringkasan pemantauan model
      • Mengelola model BigQueryML di Vertex AI
    • Kasus penggunaan
      • Klasifikasi