Langsung ke konten utama
Google Cloud
Dokumentasi Area teknologi
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Analisis data dan pipeline
  • Database
  • Terdistribusi, hybrid, dan multi-cloud
  • AI Generatif
  • Solusi industri
  • Jaringan
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
Alat lintas produk
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Google Cloud SDK, bahasa, framework, dan alat
  • Infrastruktur sebagai kode
  • Migrasi
Situs terkait
  • Beranda Google Cloud
  • Uji Coba Gratis dan Paket Gratis
  • Architecture Center
  • Blog
  • Hubungi Bagian Penjualan
  • Pusat Developer Google Cloud
  • Pusat Developer Google
  • Google Cloud Marketplace
  • Dokumentasi Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Dukungan Google Cloud
  • Channel YouTube Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Konsol Masuk
  • BigQuery
Panduan Referensi Contoh Referensi
Hubungi Kami Mulai gratis
Google Cloud
  • Dokumentasi
    • Panduan
    • Referensi
    • Contoh
    • Referensi
  • Area teknologi
    • Lainnya
  • Alat lintas produk
    • Lainnya
  • Situs terkait
    • Lainnya
  • Konsol
  • Hubungi Kami
  • Mulai gratis
  • Discover
  • Ringkasan produk
  • Mencoba BigQuery menggunakan sandbox
  • Mulai
  • Mencoba konsol
    • Memuat dan membuat kueri data
    • Mencoba DataFrames
  • Mencoba alat command line
    • Memuat dan membuat kueri data
  • Mencoba library klien
  • Menjelajahi alat BigQuery
    • Mempelajari konsol
    • Mempelajari alat command line
  • Memigrasikan
  • Ringkasan
  • Memigrasikan data warehouse
    • Pengantar BigQuery Migration Service
    • Penilaian migrasi
    • Memigrasikan skema dan data
    • Memigrasikan pipeline data
    • Memigrasikan SQL
      • Menerjemahkan kueri SQL secara interaktif
      • Menerjemahkan kueri SQL menggunakan API
      • Menerjemahkan kueri SQL dalam batch
      • Membuat metadata untuk terjemahan dan penilaian
      • Mengubah terjemahan SQL dengan YAML
      • Memetakan nama objek SQL untuk terjemahan batch
  • Panduan migrasi
    • Amazon Redshift
      • Ringkasan migrasi
      • Memigrasikan skema dan data Amazon Redshift
      • Memigrasikan skema dan data Amazon Redshift saat menggunakan VPC
      • Referensi terjemahan SQL
    • Apache Hadoop
      • Mengekstrak metadata dari Hadoop untuk migrasi
      • Memigrasikan izin dari Hadoop
      • Menjadwalkan transfer data lake HDFS
    • Apache Hive
      • Ringkasan migrasi Hive
      • Memigrasikan skema dan data Apache Hive
      • Referensi terjemahan SQL
    • IBM Netezza
      • Bermigrasi dari IBM Netezza
      • Referensi terjemahan SQL
    • Oracle
      • Panduan migrasi
      • Referensi terjemahan SQL
    • Snowflake
      • Pengantar
      • Menjadwalkan transfer Snowflake
      • Ringkasan migrasi
      • Referensi terjemahan SQL
    • Teradata
      • Pengantar
      • Ringkasan migrasi
      • Memigrasikan skema dan data Teradata
      • Tutorial migrasi
      • Referensi terjemahan SQL
  • Desain
  • Mengatur resource
  • Dependensi API
  • Memahami edisi
  • Set data
    • Pengantar
    • Membuat set data
    • Mencantumkan set data
    • Replikasi lintas-region
    • Disaster recovery terkelola
    • Bermigrasi ke pemulihan dari bencana (disaster recovery) terkelola
    • Retensi data set data
  • Tabel
    • Tabel BigQuery
      • Pengantar
      • Membuat dan menggunakan tabel
      • Tabel BigLake Iceberg di BigQuery
      • Menentukan skema tabel
        • Menetapkan skema
        • Menentukan kolom bertingkat dan berulang
        • Menentukan nilai kolom default
        • Menentukan nilai ObjectRef
      • Segmen dengan tabel berpartisi
        • Pengantar
        • Membuat tabel berpartisi
        • Mengelola tabel berpartisi
        • Mengkueri tabel berpartisi
      • Mengoptimalkan dengan tabel yang dikelompokkan
        • Pengantar
        • Membuat tabel yang dikelompokkan
        • Mengelola tabel yang dikelompokkan
        • Membuat kueri tabel yang dikelompokkan
      • Menggunakan pengindeksan metadata
    • Tabel eksternal
      • Pengantar
      • Jenis tabel eksternal
        • Tabel eksternal BigLake
        • BigQuery Omni
        • Tabel objek
        • Tabel eksternal
      • File definisi tabel eksternal
      • Data yang dipartisi secara eksternal
      • Menggunakan cache metadata
      • Tabel eksternal BigLake Amazon S3
      • Tabel eksternal Apache Iceberg
      • Tabel BigLake Blob Azure Storage
      • Tabel eksternal Bigtable
      • Tabel eksternal BigLake untuk Cloud Storage
      • Tabel objek Cloud Storage
      • Tabel eksternal Cloud Storage
      • Tabel BigLake Delta Lake
      • Tabel eksternal Google Drive
  • Penayangan
    • Tampilan logis
      • Pengantar
      • Membuat tampilan logis
    • Tampilan terwujud
      • Pengantar
      • Membuat tampilan terwujud
    • Mengelola semua jenis tampilan
      • Mendapatkan informasi tentang tampilan
      • Mengelola tampilan
  • Rutinitas
    • Pengantar
    • Mengelola rutinitas
    • Fungsi yang ditentukan pengguna (UDF)
    • Fungsi yang ditentukan pengguna di Python
    • Fungsi agregat yang ditentukan pengguna
    • Fungsi tabel
    • Fungsi jarak jauh
    • Prosedur tersimpan SQL
    • Prosedur tersimpan untuk Apache Spark
    • Menganalisis tabel objek menggunakan fungsi jarak jauh
    • Fungsi jarak jauh dan tutorial Translation API
  • Koneksi
    • Pengantar
    • Koneksi Amazon S3
    • Koneksi Apache Spark
    • Koneksi Azure Blob Storage
    • Koneksi resource cloud
    • Koneksi Spanner
    • Koneksi Cloud SQL
    • Koneksi AlloyDB
    • Koneksi SAP Datasphere
    • Mengelola koneksi
    • Mengonfigurasi koneksi dengan lampiran jaringan
    • Koneksi default
  • Indeks
    • Indeks penelusuran
      • Pengantar
      • Mengelola indeks penelusuran
    • Indeks vektor
      • Pengantar
      • Mengelola indeks vektor
  • Memuat, mentransformasi, dan mengekspor
  • Pengantar
  • Muat data
    • Pengantar
    • Ringkasan penyimpanan
    • BigQuery Data Transfer Service
      • Pengantar
      • Lokasi dan transfer data
      • Mengizinkan transfer
      • Mengaktifkan transfer
      • Menyiapkan koneksi jaringan
        • Akses instance Cloud SQL
        • VPN AWS dan lampiran jaringan
        • Azure VPN dan lampiran jaringan
      • Mengelola transfer
      • Mentransfer notifikasi operasi
      • Memecahkan masalah konfigurasi transfer
      • Menggunakan akun layanan
      • Menggunakan transfer pihak ketiga
      • Menggunakan kebijakan organisasi kustom
      • Log perubahan sumber data
      • Transfer berdasarkan peristiwa
      • Panduan transfer
        • Amazon S3
          • Pengantar
          • Menjadwalkan transfer
          • Mentransfer parameter runtime
        • Azure Blob Storage
          • Pengantar
          • Menjadwalkan transfer
          • Mentransfer parameter runtime
        • Campaign Manager
          • Menjadwalkan transfer
          • Transformasi laporan
        • Cloud Storage
          • Pengantar
          • Menjadwalkan transfer
          • Mentransfer parameter runtime
        • Comparison Shopping Service Center
          • Pengantar
          • Menjadwalkan transfer
          • Skema laporan transfer
        • Display & Video 360
          • Menjadwalkan transfer
          • Transformasi laporan
        • Facebook Ads
          • Menjadwalkan transfer
          • Transformasi laporan
        • Google Ad Manager
          • Menjadwalkan transfer
          • Transformasi laporan
        • Google Ads
          • Menjadwalkan transfer
          • Transformasi laporan
        • Google Analytics 4
          • Menjadwalkan transfer
          • Transformasi laporan
        • Google Merchant Center
          • Pengantar
          • Menjadwalkan transfer
          • Membuat kueri data Anda
          • Panduan migrasi
            • Terlaris
            • Daya saing harga
          • Skema laporan transfer
            • Tabel Best Sellers
            • Tabel Inventaris Lokal
            • Tabel performa
            • Tabel Tolok Ukur Harga
            • Tabel Daya Saing Harga
            • Tabel Analisis Harga
            • Tabel Inventaris Produk
            • Tabel Penargetan Produk
            • Tabel produk
            • Tabel Inventaris Regional
            • Tabel Merek Teratas
            • Tabel Produk Teratas
        • Google Play
          • Menjadwalkan transfer
          • Mentransfer transformasi laporan
        • MySQL
          • Menjadwalkan transfer
        • Oracle
          • Menjadwalkan transfer
        • PostgreSQL
          • Menjadwalkan transfer
        • Salesforce
          • Menjadwalkan transfer
        • Salesforce Marketing Cloud
          • Menjadwalkan transfer
        • Search Ads 360
          • Menjadwalkan transfer
          • Mentransfer transformasi laporan
          • Panduan migrasi
        • ServiceNow
          • Menjadwalkan transfer
        • Channel YouTube
          • Menjadwalkan transfer
          • Mentransfer transformasi laporan
        • Pemilik konten YouTube
          • Menjadwalkan transfer
          • Mentransfer transformasi laporan
    • Memuat data secara kelompok
      • Pengantar
      • Mendeteksi skema secara otomatis
      • Memuat data Avro
      • Memuat data Parquet
      • Memuat data ORC
      • Memuat data CSV
      • Memuat data JSON
      • Memuat data berpartisi secara eksternal
      • Memuat data dari ekspor Datastore
      • Memuat data dari ekspor Firestore
      • Memuat data menggunakan Storage Write API
      • Memuat data ke dalam tabel berpartisi
    • Menuliskan dan membaca data dengan Storage API
      • Membaca data dengan Storage Read API
      • Menuliskan data dengan Storage Write API
        • Pengantar
        • Mengalirkan data dengan Storage Write API
        • Memuat data secara kelompok dengan Storage Write API
        • Praktik terbaik
        • Jenis data buffering protokol dan Arrow yang didukung
        • Mengalirkan data pembaruan dengan pengambilan data perubahan
        • Menggunakan API streaming lama
    • Memuat data dari layanan Google lainnya
    • Menemukan dan membuat katalog data Cloud Storage
    • Memuat data menggunakan aplikasi pihak ketiga
    • Memuat data menggunakan operasi lintas-cloud
  • Mengubah data
    • Pengantar
    • Menyiapkan data
      • Pengantar
      • Menyiapkan data dengan Gemini
    • Transformasi dengan DML
    • Mengubah data dalam tabel berpartisi
    • Menggunakan histori perubahan
    • Mentransformasi data dengan pipeline
      • Pengantar
      • Membuat pipeline
  • Ekspor data
    • Pengantar
    • Mengekspor hasil kueri
    • Ekspor ke Cloud Storage
    • Mengekspor ke Bigtable
    • Mengekspor ke Spanner
    • Ekspor ke Pub/Sub
    • Mengekspor sebagai kolom Protobuf
  • Analisis
  • Pengantar
  • Menelusuri referensi
  • Jelajahi data Anda
    • Membuat kueri dengan penjelajah tabel
    • Membuat profil data Anda
    • Menghasilkan insight data
    • Menganalisis dengan kanvas data
    • Menganalisis data dengan Gemini
  • Membuat kueri data BigQuery
    • Jalankan kueri
    • Menulis kueri dengan Gemini
    • Menulis hasil kueri
    • Membuat kueri data dengan SQL
      • Pengantar
      • Array
      • Data JSON
      • Kueri multi-pernyataan
      • Kueri berparameter
      • Sintaksis pipa
      • Menganalisis data menggunakan sintaksis pipa
      • CTE Rekursif
      • Sketsa
      • Pengambilan sampel tabel
      • Deret waktu
      • Transaksi
      • Tabel karakter pengganti
    • Menggunakan analisis geospasial
      • Pengantar
      • Menggunakan analisis geospasial
      • Menggunakan data raster
      • Praktik terbaik untuk analisis spasial
      • Memvisualisasikan data geospasial
      • Sistem petak untuk analisis spasial
      • Referensi sintaksis analisis geospasial
      • Tutorial analisis geospasial
        • Memulai dengan analisis geospasial
        • Menggunakan analisis geospasial untuk merencanakan jalur badai
        • Memvisualisasikan data analisis geospasial di notebook Colab
        • Menggunakan data raster untuk menganalisis suhu
    • Data penelusuran
      • Menelusuri data yang diindeks
      • Menggunakan penganalisis teks
    • Mengakses data historis
  • Menggunakan kueri
    • Menyimpan kueri
      • Pengantar
      • Membuat kueri tersimpan
    • Kueri berkelanjutan
      • Pengantar
      • Membuat kueri berkelanjutan
    • Gunakan hasil yang disimpan dalam cache
    • Menggunakan sesi
      • Pengantar
      • Mengerjakan sesi
      • Menulis kueri dalam sesi
    • Memecahkan masalah kueri
    • Mengoptimalkan kueri
      • Pengantar
      • Menggunakan penjelasan rencana kueri
      • Mendapatkan insight performa kueri
      • Mengoptimalkan komputasi kueri
      • Menggunakan pengoptimalan berbasis histori
      • Mengoptimalkan penyimpanan untuk performa kueri
      • Menggunakan tampilan terwujud
      • Menggunakan BI Engine
      • Menggunakan data bertingkat dan berulang
      • Mengoptimalkan fungsi
      • Menggunakan runtime lanjutan
      • Menggunakan kunci utama dan kunci asing
  • Menganalisis data multimodal
    • Pengantar
    • Menganalisis data multimodal dengan UDF SQL dan Python
    • Menganalisis data multimodal dengan BigQuery DataFrames
  • Membuat kueri sumber data eksternal
    • Mengelola metadata open source dengan metastore BigLake
      • Pengantar
      • Menggunakan dengan tabel di BigQuery
      • Menggunakan dengan Dataproc
      • Penggunaan dengan Serverless untuk Apache Spark
      • Penggunaan dengan prosedur tersimpan Spark
      • Mengelola resource metastore
      • Membuat dan mengkueri tabel dari Spark
      • Menyesuaikan dengan fitur tambahan
      • Menggunakan dengan katalog REST Iceberg
    • Format data dan metadata yang optimal untuk lakehouse
    • Menggunakan tabel dan set data eksternal
      • Data Amazon S3
        • Membuat kueri data Amazon S3
        • Mengekspor hasil kueri ke Amazon S3
      • Membuat kueri data Apache Iceberg
      • Membuat kueri format tabel terbuka dengan manifes
      • Data Azure Blob Storage
        • Membuat kueri data Azure Blob Storage
        • Mengekspor hasil kueri ke Azure Blob Storage
      • Membuat kueri data Cloud Bigtable
      • Data Cloud Storage
        • Membuat kueri data Cloud Storage dalam tabel BigLake
        • Membuat kueri data Cloud Storage dalam tabel eksternal
      • Menggunakan data Salesforce Data Cloud
      • Membuat kueri data Google Drive
      • Membuat set data gabungan AWS Glue
      • Membuat set data eksternal Spanner
    • Menjalankan kueri gabungan
      • Kueri gabungan
      • Membuat kueri data SAP Datasphere
      • Membuat kueri data AlloyDB
      • Membuat kueri data Spanner
      • Membuat kueri data Cloud SQL
  • Menggunakan notebook
    • Pengantar
    • Menggunakan notebook Colab
      • Pengantar
      • Membuat notebook
      • Menjelajahi hasil kueri
      • Menggunakan Spark
      • Menggunakan Agen Data Science Colab
    • Menggunakan DataFrame
      • Pengantar
      • Menggunakan DataFrame
      • Menggunakan sistem jenis data
      • Mengelola sesi dan I/O
      • Memvisualisasikan grafik
      • Menggunakan DataFrame di dbt
      • Mengoptimalkan performa
    • Menggunakan notebook Jupyter
      • Menggunakan plugin BigQuery JupyterLab
  • Menggunakan analisis dan alat BI
    • Pengantar
    • Menggunakan Sheet yang Terhubung
    • Menggunakan Tableau Desktop
    • Menggunakan Looker
    • Menggunakan Looker Studio
    • Menggunakan alat pihak ketiga
    • Google Cloud Ready - BigQuery
      • Ringkasan
      • Partner
  • AI dan machine learning
  • Pengantar
  • AI generatif dan model terlatih
    • Perjalanan pengguna menyeluruh untuk model AI generatif
    • AI Generatif
      • Ringkasan
      • Pilih fungsi pembuatan teks
      • Model bawaan
        • Model perkiraan deret waktu TimesFM
      • Tutorial
        • Buat teks
          • Membuat teks menggunakan data publik dan Gemini
          • Membuat teks menggunakan data publik dan Gemma
          • Membuat teks menggunakan data Anda
          • Menangani error kuota dengan memanggil ML.GENERATE_TEXT secara iteratif
          • Menganalisis gambar dengan model Gemini
          • Menyesuaikan model pembuatan teks
            • Menyesuaikan model menggunakan data Anda
            • Menggunakan penyesuaian dan evaluasi untuk meningkatkan performa model
        • Membuat data terstruktur
          • Membuat data terstruktur
        • Membuat embedding
          • Membuat embedding teks menggunakan LLM
          • Membuat embedding teks menggunakan model terbuka
          • Membuat embedding gambar menggunakan LLM
          • Membuat embedding video menggunakan LLM
          • Menangani error kuota dengan memanggil ML.GENERATE_EMBEDDING secara iteratif
          • Membuat dan menelusuri embedding multimodal
          • Membuat embedding teks menggunakan model TensorFlow yang telah dilatih sebelumnya
        • Penelusuran vektor
          • Menelusuri embedding dengan penelusuran vektor
          • Melakukan penelusuran semantik dan retrieval augmented generation
    • Solusi khusus tugas
      • Ringkasan
      • Memilih fungsi pemrosesan bahasa alami
      • Memilih fungsi pemrosesan dokumen
      • Tutorial
        • Natural language processing
          • Memahami teks
          • Menerjemahkan teks
        • Pemrosesan dokumen
          • Memproses dokumen
          • Mengurai PDF dalam pipeline pembuatan yang dilengkapi pengambilan
        • Pengenalan ucapan
          • Mentranskripsikan file audio
        • Computer vision
          • Menganotasi gambar
          • Menjalankan inferensi pada data gambar
          • Menganalisis gambar dengan model klasifikasi yang diimpor
          • Menganalisis gambar dengan model vektor fitur yang diimpor
  • Machine learning
    • Perjalanan pengguna menyeluruh untuk model ML
    • Perjalanan pengguna menyeluruh untuk model yang diimpor
    • Model ML dan MLOps
      • Pembuatan model
      • Rekayasa dan pengelolaan fitur
        • Ringkasan pra-pemrosesan fitur
        • Jenis fitur input yang didukung
        • Pra-pemrosesan otomatis
        • Pra-pemrosesan manual
        • Penyajian fitur
        • Melakukan rekayasa fitur dengan klausa TRANSFORM
      • Ringkasan penyesuaian hyperparameter
      • Ringkasan evaluasi model
      • Ringkasan inferensi model
      • Ringkasan Explainable AI
      • Ringkasan bobot model
      • Ringkasan pipeline ML
      • Ringkasan pemantauan model
      • Mengelola model BigQueryML di Vertex AI
    • Kasus penggunaan
      • Klasifikasi
      • Regresi
      • Pengurangan dimensi
      • Dukungan
      • Rekomendasi
      • Deteksi anomali
    • Tutorial
      • Memulai
        • Mulai menggunakan BigQuery ML menggunakan SQL
        • Mulai menggunakan BigQuery ML menggunakan konsol Cloud
      • Regresi dan klasifikasi
        • Membuat model regresi linear
        • Membuat model klasifikasi regresi logistik
        • Membuat model klasifikasi hierarki yang ditingkatkan
      • Dukungan
        • Mengelompokkan data dengan model k-means
      • Rekomendasi
        • Membuat rekomendasi berdasarkan masukan eksplisit dengan model faktorisasi matriks
        • Membuat rekomendasi berdasarkan masukan implisit dengan model faktorisasi matriks
      • Deteksi anomali
        • Deteksi anomali dengan deret waktu multi-variabel
      • Model yang diimpor dan jarak jauh
        • Membuat prediksi dengan model TensorFlow yang diimpor
        • Membuat prediksi dengan model scikit-learn dalam format ONNX
        • Membuat prediksi dengan model PyTorch dalam format ONNX
        • Membuat prediksi dengan model jarak jauh di Vertex AI
      • Penyesuaian hyperparameter
        • Meningkatkan performa model dengan penyesuaian hyperparameter
      • Mengekspor model
        • Mengekspor model BigQuery ML untuk prediksi online
  • Deret waktu
    • Ringkasan
    • Perjalanan pengguna menyeluruh untuk model perkiraan
    • Tutorial
      • Membuat perkiraan satu deret waktu dengan model univariat ARIMA_PLUS
      • Membuat perkiraan beberapa deret waktu dengan model univariat ARIMA_PLUS
      • Memperkirakan deret waktu dengan model univariat TimesFM
      • Menskalakan model univariat ARIMA_PLUS ke jutaan deret waktu
      • Memperkirakan satu deret waktu dengan model multi-variabel
      • Memperkirakan beberapa deret waktu dengan model multi-variabel
      • Menggunakan hari libur kustom dengan model univariat ARIMA_PLUS
      • Membatasi nilai perkiraan untuk model univariat ARIMA_PLUS
      • Membuat perkiraan deret waktu hierarkis dengan model univariat ARIMA_PLUS
  • Analisis yang diperkaya
    • Analisis kontribusi
    • Tutorial
      • Mendapatkan insight data dari analisis kontribusi menggunakan metrik yang dapat dijumlahkan
      • Mendapatkan insight data dari analisis kontribusi menggunakan metrik rasio yang dapat dijumlahkan
  • Menggunakan model
    • Membuat daftar model
    • Mengelola model
    • Mendapatkan metadata model
    • Mengupdate metadata model
    • Mengekspor model
    • Menghapus model
  • Pola referensi
  • Mengelola
  • Pengantar
  • Mengelola resource
    • Mengatur resource
    • Memahami keandalan
    • Mengelola aset kode
      • Mengelola persiapan data
      • Mengelola notebook
      • Kelola kueri tersimpan
      • Mengelola pipeline
    • Mengelola tabel
      • Mengelola tabel
      • Mengelola data tabel
      • Mengubah skema tabel
      • Memulihkan tabel yang dihapus
    • Mengelola clone tabel
      • Pengantar
      • Membuat clone tabel
    • Mengelola snapshot tabel
      • Pengantar
      • Membuat snapshot tabel
      • Memulihkan snapshot tabel
      • Menampilkan daftar snapshot tabel
      • Melihat metadata snapshot tabel
      • Memperbarui metadata snapshot tabel
      • Menghapus snapshot tabel
      • Membuat snapshot tabel berkala
    • Mengelola setelan konfigurasi
    • Mengelola set data
      • Mengelola set data
      • Memperbarui properti set data
      • Memulihkan set data yang dihapus
    • Mengelola tampilan terwujud
    • Mengelola replika tampilan terwujud
  • Menjadwalkan item
    • Pengantar
    • Menjadwalkan aset kode
      • Menjadwalkan persiapan data
      • Menjadwalkan notebook
      • Menjadwalkan pipeline
      • Menjadwalkan DAG
    • Menjadwalkan tugas dan kueri
      • Menjalankan tugas secara terprogram
      • Menjadwalkan kueri
  • Pengelolaan workload
    • Pengantar
    • Slot
    • Reservasi slot
    • Penskalaan otomatis slot
    • Menggunakan reservasi
      • Mulai
      • Memperkirakan persyaratan kapasitas slot
      • Melihat rekomendasi dan insight slot
      • Membeli dan mengelola komitmen slot
      • Menggunakan pemesanan slot
      • Menggunakan penetapan pemesanan
    • Kelola lowongan
    • Menggunakan antrean kueri
    • Reservasi lama
      • Pengantar tentang pemesanan lama
      • Komitmen slot lama
      • Membeli dan mengelola komitmen slot lama
      • Menggunakan reservasi slot lama
    • Mengelola BI Engine
      • Pengantar
      • Memesan kapasitas BI Engine
  • Memantau workload
    • Pengantar
    • Memantau penggunaan resource
    • Memantau tugas
    • Memantau listingan berbagi
    • Memantau BI Engine
    • Memantau Data Transfer Service
    • Memantau tampilan terwujud
    • Memantau pemesanan
    • Memantau kueri berkelanjutan
    • Dasbor, diagram, dan pemberitahuan
    • Menyiapkan pemberitahuan dengan kueri terjadwal
  • Mengoptimalkan resource
    • Mengendalikan biaya
      • Memperkirakan dan mengontrol biaya
      • Membuat kuota kueri kustom
    • Mengoptimalkan dengan rekomendasi
      • Pengantar
      • Mengelola rekomendasi cluster dan partisi
      • Mengelola rekomendasi tampilan terwujud
    • Mengatur dengan label
      • Pengantar
      • Tambahkan label
      • Lihat label
      • Perbarui label
      • Memfilter menggunakan label
      • Hapus label
  • Tata kelola
  • Pengantar
  • Mengelola kualitas data
    • Memindai masalah kualitas data
    • Ringkasan Data Catalog
    • Menggunakan Data Catalog
  • Mengontrol akses ke resource
    • Pengantar
    • Peran dan izin IAM
    • Perubahan pada kontrol akses tingkat set data
    • Peran dasar dan izin
    • Mengontrol akses dengan IAM
      • Mengontrol akses ke resource dengan IAM
      • Mengontrol akses dengan tag
      • Mengontrol akses dengan kondisi
      • Mengontrol akses dengan batasan kustom
      • Memecahkan masalah izin IAM
    • Mengontrol akses dengan otorisasi
      • Set data yang diizinkan
      • Rutinitas yang diotorisasi
      • Tampilan yang diberi otorisasi
      • Tutorial
        • Membuat tampilan yang diotorisasi
    • Membatasi akses jaringan
      • Mengontrol akses dengan kontrol layanan VPC
      • Endpoint regional
    • Mengontrol akses kolom dan baris
      • Mengontrol akses ke kolom tabel
        • Pengantar kontrol akses tingkat kolom
        • Membatasi akses dengan kontrol akses tingkat kolom
        • Dampak terhadap operasi tulis
      • Mengontrol akses ke baris tabel
        • Pengantar keamanan tingkat baris
        • Menggunakan keamanan tingkat baris
        • Menggunakan keamanan tingkat baris dengan fitur BigQuery lainnya
        • Praktik terbaik untuk keamanan tingkat baris
      • Mengelola tag kebijakan
        • Mengelola tag kebijakan di seluruh lokasi
        • Praktik terbaik untuk menggunakan tag kebijakan
    • Perlindungan untuk data sensitif
      • Menyamarkan data di kolom tabel
        • Pengantar penyamaran data
        • Menyamarkan data kolom
      • Menganonimkan data dengan privasi diferensial
        • Menggunakan privasi diferensial
        • Memperluas privasi diferensial
      • Membatasi akses data menggunakan aturan analisis
      • Menggunakan Perlindungan Data Sensitif
    • Mengelola enkripsi
      • Enkripsi dalam penyimpanan
      • Kunci enkripsi yang dikelola pelanggan
      • Enkripsi level kolom dengan Cloud KMS
      • Enkripsi AEAD
  • Membagikan data
    • Pengantar
    • Mengelola pertukaran data
    • Mengelola listingan
    • Kelola langganan
    • Mengonfigurasi peran pengguna
    • Melihat dan berlangganan listingan
    • Ruang bersih data
      • Pengantar
      • Menggunakan template kueri
    • Resolusi entity
      • Pengantar
      • Menggunakan resolusi entity
    • Kontrol Layanan VPC untuk Berbagi
    • Berbagi streaming dengan Pub/Sub
    • Memasarkan listingan di Cloud Marketplace
  • Audit
    • Pengantar
    • Mengaudit tag kebijakan
    • Melihat log audit Kebijakan Data
    • Log audit Data Transfer Service
    • Membagikan log audit
    • Referensi log audit BigQuery
    • Memigrasikan log audit
    • Log audit BigLake API
    • Log audit BigQuery Migration API
  • Mengembangkan aplikasi
  • Pengantar
  • Contoh kode BigQuery
  • Dasar-dasar BigQuery API
    • Ringkasan BigQuery API dan library
    • Authentication
      • Pengantar
      • Mulai
      • Mengautentikasi sebagai pengguna akhir
      • Melakukan autentikasi dengan Token Web JSON
    • Menjalankan tugas secara terprogram
    • Memberi nomor halaman dengan BigQuery API
    • Tip performa API
    • Permintaan batch
  • Repositori
    • Pengantar
    • Membuat repositori
  • Ruang kerja
    • Pengantar
    • Membuat dan menggunakan ruang kerja
  • Menggunakan ekstensi VS Code
  • Memilih library Python
  • Menggunakan driver ODBC dan JDBC
  • Menghubungkan IDE ke BigQuery
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Analisis data dan pipeline
  • Database
  • Terdistribusi, hybrid, dan multi-cloud
  • AI Generatif
  • Solusi industri
  • Jaringan
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Google Cloud SDK, bahasa, framework, dan alat
  • Infrastruktur sebagai kode
  • Migrasi
  • Beranda Google Cloud
  • Uji Coba Gratis dan Paket Gratis
  • Architecture Center
  • Blog
  • Hubungi Bagian Penjualan
  • Pusat Developer Google Cloud
  • Pusat Developer Google
  • Google Cloud Marketplace
  • Dokumentasi Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Dukungan Google Cloud
  • Channel YouTube Google Cloud Tech
Halaman ini diterjemahkan oleh