メイン コンテンツにスキップ
ドキュメント
テクノロジー分野
close
AI と ML
アプリケーション開発
アプリケーションのホスティング
コンピューティング
データ分析とパイプライン
データベース
分散型クラウド、ハイブリッド クラウド、マルチクラウド
生成 AI
業種別ソリューション
ネットワーキング
オブザーバビリティとモニタリング
セキュリティ
Storage
プロダクト横断型のツール
close
アクセスとリソースの管理
費用と使用量の管理
Google Cloud SDK、言語、フレームワーク、ツール
Infrastructure as code
移行
関連サイト
close
Google Cloud のホーム
無料トライアルと無料枠
アーキテクチャ センター
ブログ
お問い合わせ
Google Cloud Developer Center
Google Developer Center
Google Cloud Marketplace
Google Cloud Marketplace のドキュメント
Google Cloud Skills Boost
Google Cloud Solutions Center
Google Cloud サポート
YouTube の Google Cloud Tech チャンネル
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
コンソール
ログイン
Vertex AI
ガイド
リファレンス
サンプル
サポート
リソース
お問い合わせ
無料で利用開始
ドキュメント
ガイド
リファレンス
サンプル
サポート
リソース
テクノロジー分野
その他
プロダクト横断型のツール
その他
関連サイト
その他
コンソール
お問い合わせ
無料で利用開始
Discover
概要
Vertex AI の概要
Vertex AI での MLOps
Vertex AI のインターフェース
Vertex AI 初心者向けガイド
AutoML モデルをトレーニングする
カスタムモデルのトレーニング
カスタムモデルから推論を取得する
Vertex AI と Python SDK を使用してモデルをトレーニングする
はじめに
前提条件
ノートブックを作成する
データセットの作成
トレーニング スクリプトを作成する
モデルをトレーニングする
推論を行う
統合された ML フレームワーク
PyTorch
TensorFlow
BigQuery ユーザー用の Vertex AI
用語集
使ってみる
プロジェクトと開発環境を設定する
Vertex AI SDK for Python をインストールする
トレーニング方法を選択する
チュートリアルを試す
チュートリアルの概要
AutoML のチュートリアル
Hello 画像データ
概要
プロジェクトと環境を設定する
データセットを作成して画像をインポートする
AutoML 画像分類モデルをトレーニングする
モデルのパフォーマンスを評価して分析する
エンドポイントにモデルをデプロイして推論を行う
プロジェクトをクリーンアップする
Hello 表形式データ
概要
プロジェクトと環境を設定する
データセットを作成して AutoML 分類モデルをトレーニングする
モデルをデプロイして推論をリクエストする
プロジェクトをクリーンアップする
カスタム トレーニング チュートリアル
カスタム表形式モデルをトレーニングする
TensorFlow Keras 画像分類モデルをトレーニングする、
概要
プロジェクトと環境を設定する
カスタム画像分類モデルをトレーニングする
カスタム画像分類モデルから取得した予測情報の提供
プロジェクトをクリーンアップする
カスタムデータを使用して画像分類モデルを微調整する
カスタム トレーニング ノートブックのチュートリアル
Terraform を使用してユーザー管理ノートブック インスタンスを作成する
生成 AI と LLM を使用する
生成 AI について
Vertex AI 開発ツールを使用する
開発ツールの概要
Vertex AI SDK を使用する
概要
Vertex AI SDK for Python の概要
Vertex AI SDK for Python のクラス
Vertex AI SDK クラスの概要
データクラス
トレーニング クラス
モデル クラス
予測クラス
トラッキング クラス
ノートブックで Vertex AI を使用する
ノートブック ソリューションを選択する
Colab Enterprise
クイックスタート: コンソールでノートブックを作成する
ランタイムに接続する
ランタイムとランタイム テンプレートを管理する
ランタイム テンプレートを作成する
ランタイムを作成する
Vertex AI Workbench
はじめに
ノートブック チュートリアル
使ってみる
コンソールを使用してインスタンスを作成する
ノートブックの実行スケジュールを設定する
インスタンスを設定する
インスタンスを作成する
インスタンスの特定のバージョンを作成する
ユーザー認証情報アクセス権を持つインスタンスを作成する
Confidential Computing を使用してインスタンスを作成する
conda 環境を追加する
アイドル状態でのシャットダウン
カスタム コンテナを使用してインスタンスを作成する
Dataproc が有効になっているインスタンスを作成する
サードパーティの認証情報を使用してインスタンスを作成する
メタデータを通じて機能を管理する
予約を使用する
データに接続
JupyterLab 内から BigQuery 内のデータにクエリを実行する
JupyterLab で Cloud Storage バケットとファイルにアクセスする
データを探索、可視化
BigQuery でデータを探索、可視化
メンテナンス
conda 環境を管理する
バックアップと復元
ノートブックを GitHub に保存する
スナップショットを使用する
Cloud Storage を使用
インスタンスのシャットダウン
インスタンスの環境をアップグレードする
SSH を使用して JupyterLab にアクセスする
データを新しいインスタンスに移行する
マシンタイプを変更して GPU を構成する
Terraform を使用してリソースをプロビジョニングする
モニタリング
ヘルス ステータスをモニタリングする
アクセスを制御する
アクセス制御
インスタンスへのアクセスを管理する
インスタンスの JupyterLab インターフェースへのアクセスを管理する
顧客管理の暗号鍵を使用する
サービス境界内でインスタンスを使用する
Vertex AI Workbench のトラブルシューティング
Vertex AI Workbench リリースノート
マネージド ノートブック
マネージド ノートブックの概要
使ってみる
Cloud コンソールを使用してマネージド ノートブック インスタンスを作成する
マネージド ノートブックの実行をスケジュールする
マネージド ノートブック インスタンスを設定する
マネージド ノートブック インスタンスを作成する
カスタム コンテナを使用してインスタンスを作成する
Dataproc クラスタでマネージド ノートブック インスタンスを実行する
マネージド ノートブックで Dataproc Serverless Spark を使用する
アイドル状態でのシャットダウン
マネージド ノートブックのバージョン
データに接続
JupyterLab 内から BigQuery 内のデータにクエリを実行する
JupyterLab で Cloud Storage バケットとファイルにアクセスする
データを探索、可視化
概要
BigQuery でデータを探索、可視化
モデルを開発する
マネージド ノートブック インスタンスでのモデル開発
デプロイ
エグゼキュータでノートブック ファイルを実行する
パラメータを使用してノートブックを実行する
メンテナンス
Vertex AI Workbench インスタンスに移行する
ノートブックを GitHub に保存する
マネージド ノートブック インスタンスのマシンタイプを変更して GPU を構成する
マネージド ノートブック インスタンスの環境をアップグレードする
新しいマネージド ノートブック インスタンスにデータを移行する
モニタリング
監査ロギング
アクセスを制御する
アクセス制御
インスタンスへのアクセスを管理する
インスタンスの JupyterLab インターフェースへのアクセスを管理する
顧客管理の暗号鍵を使用する
ネットワークを設定する
サービス境界内でマネージド ノートブック インスタンスを使用する
マネージド ノートブックのトラブルシューティング
ユーザー管理のノートブック
ユーザー管理ノートブックの概要
使ってみる
Cloud コンソールを使用してユーザー管理のノートブック インスタンスを作成する
ユーザー管理のノートブック インスタンスを設定する
ユーザー管理ノートブック インスタンスの作成
インスタンスの特定のバージョンを作成する
パッチとサポートの終了日以降にインスタンスを作成する
依存関係をインストールする
仮想マシンイメージを選択する
カスタム コンテナを使用してインスタンスを作成する
Exploreデータ
Google Cloud の R によるデータ サイエンス: 探索的データ分析についてのチュートリアル
モニタリング
ヘルス ステータスをモニタリングする
監査ロギング
アクセスを制御する
アクセス制御
インスタンスへのアクセスを管理する
インスタンスの JupyterLab インターフェースへのアクセスを管理する
顧客管理の暗号鍵
サービス境界内でユーザー管理ノートブック インスタンスを使用する
ユーザー管理のノートブックでシールドされた仮想マシンを使用する
チュートリアル: VPC ネットワーク内にノートブック インスタンスを作成する
メンテナンス
Vertex AI Workbench インスタンスに移行する
ノートブックを GitHub に保存する
スナップショットを使用してデータをバックアップする
ユーザー管理ノートブック インスタンスをシャットダウンする
ユーザー管理ノートブック インスタンスのマシンタイプを変更して GPU を構成する
ユーザー管理ノートブック インスタンスの環境をアップグレードする
新しいユーザー管理ノートブック インスタンスにデータを移行する
Notebooks API を使用して以前のインスタンスを登録する
SSH を使用して JupyterLab にアクセスする
ユーザー管理のノートブックのトラブルシューティング
Vertex AI の Terraform サポート
予測 AI モデルの開発
概要
AutoML モデルの開発
AutoML トレーニングの概要
画像データ
分類
データの準備
データセットを作成
モデルをトレーニング
モデルの評価
予測の取得
結果の解釈
オブジェクト検出
データの準備
データセットを作成
モデルをトレーニング
モデルの評価
予測の取得
結果の解釈
Base64 で画像データをエンコードする
AutoML Edge モデルをエクスポートする
表形式データ
概要
表形式データの概要
Tabular Workflows
概要
特徴量エンジニアリング
エンドツーエンドの AutoML
概要
モデルをトレーニングする
オンライン推論を取得する
バッチ推論を取得する
TabNet
概要
モデルをトレーニングする
オンライン推論を取得する
バッチ推論を取得する
ワイド&ディープ
概要
モデルをトレーニングする
オンライン推論を取得する
バッチ推論を取得する
予測
概要
モデルをトレーニングする
オンライン推論を取得する
バッチ推論を取得する
料金
サービス アカウント
割り当てを管理
AutoML で分類と回帰を行う
概要
クイックスタート: AutoML 分類(Cloud コンソール)
トレーニング データを準備
データセットの作成
モデルをトレーニングする
モデルの評価
モデル アーキテクチャを表示する
オンライン推論を取得する
バッチ推論を取得する
モデルのエクスポート
AutoML を使用した予測を実行する
概要
トレーニング データを準備
データセットの作成
モデルをトレーニングする
モデルの評価
推論を取得する
階層予測
ARIMA+ を使用した予測を実行する
Prophet を使用した予測を実行する
エンティティ調整を実行する
分類と回帰のための特徴アトリビューション
予測の特徴アトリビューション
表形式の AutoML データのデータ型と変換
予測用のトレーニング パラメータ
表形式データのデータ分割
表形式のトレーニング データを作成するためのベスト プラクティス
TimeSeries Insights を使用して予測する
AutoML Edge モデルをトレーニングする
コンソールの使用
API の使用
AutoML Text(従来版)
AutoML Text から Gemini に移行する
AutoML テキスト ユーザー向けの Gemini
テキストデータ
分類
データの準備
データセットを作成
モデルをトレーニング
モデルの評価
予測の取得
結果の解釈
エンティティの抽出
データの準備
データセットを作成
モデルをトレーニング
モデルの評価
予測の取得
結果の解釈
感情分析
データの準備
データセットを作成
モデルをトレーニング
モデルの評価
予測の取得
結果の解釈
カスタム トレーニング
カスタム トレーニングの概要
データの読み込みと準備を行う
データ準備の概要
Cloud Storage をマウント ファイル システムとして使用する
カスタム トレーニング用の NFS 共有をマウントする
マネージド データセットを使用する
Vertex AI カスタム トレーニング
Vertex AI のカスタム トレーニングの概要
トレーニング アプリケーションを準備する
カスタム トレーニング サービスについて
トレーニング コードを準備する
ビルド済みのコンテナを使用する
ビルド済みコンテナ用の Python トレーニング アプリケーションを作成する
カスタム トレーニング用に事前にビルドされたコンテナ
カスタム コンテナを使用する
トレーニング用のカスタム コンテナ
カスタム コンテナを作成する
トレーニング コードをコンテナ化してローカルで実行する
Deep Learning VM Image と Deep Learning Containers を使用する
永続リソースでトレーニングする
概要
永続リソースを作成する
永続リソースでトレーニング ジョブを実行する
永続リソース情報を取得する
永続リソースを再起動する
永続リソースを削除する
トレーニング ジョブを構成
カスタム トレーニング方法を選択する
トレーニング用のコンテナ設定を構成する
トレーニング用のコンピューティング リソースを構成する
トレーニングで予約を使用する
トレーニングで Spot VM を使用する。
トレーニング ジョブを送信する
カスタムジョブの作成
ハイパーパラメータ調整
ハイパーパラメータ チューニングの概要
ハイパーパラメータ チューニングを使用する
トレーニング パイプラインの作成
リソースの可用性に基づいてジョブをスケジュールする
分散トレーニングを使用する
Cloud TPU VM でのトレーニング
カスタム トレーニングにプライベート IP を使用する
トレーニングに Private Service Connect インターフェースを使用する(推奨)
ニューラル アーキテクチャ検索を実行する
概要
環境を設定する
初心者向けチュートリアル
ベスト プラクティスとワークフロー
プロキシタスクの設計
PyTorch のトレーニング速度を最適化する
ビルド済みのトレーニング コンテナと検索空間を使用する
モニタリングとデバッグ
インタラクティブ シェルを使用したトレーニングのモニタリングとデバッグを行う
モデルのトレーニング パフォーマンスのプロファイリングを行う
Vertex AI Vizier を使用して最適化する
Vertex AI Vizier の概要
Vertex AI Vizier スタディを作成する
Vertex AI Vizier ノートブックのチュートリアル
推論を取得する
チュートリアル: 継続的なトレーニング用のパイプラインを構築する
カスタムの組織のポリシー制約を作成する
Vertex AI での Ray
Ray on Vertex AI の概要
Ray on Vertex AI を設定する
Vertex AI で Ray クラスタを作成する
Vertex AI で Ray クラスタをモニタリングする
Vertex AI で Ray クラスタをスケールする
Vertex AI で Ray アプリケーションを開発する
Vertex AI の Ray クラスタで Spark を実行する
BigQuery と Ray on Vertex AI を使用する
モデルをデプロイして推論を取得する
Ray クラスタを削除する
Ray on Vertex AI ノートブックのチュートリアル
生成 AI モデルの開発
概要
データセットを作成して管理する
概要
AutoML モデルのデータ分割
アノテーション セットを作成する
アノテーション セットを削除する
ラベルを追加する(コンソール)
データセットからメタデータとアノテーションをエクスポートする
データセットのバージョンを管理する
Data Catalog を使用してモデルとデータセットのリソースを検索する
推論を取得する
概要
推論用のモデルを構成する
推論用のモデル アーティファクトをエクスポートする
推論用のビルド済みコンテナ
推論用のカスタム コンテナの要件
推論にカスタム コンテナを使用する
任意のカスタムルートを使用する
最適化された TensorFlow ランタイムを使用する
NVIDIA Triton を使用して推論を提供する
カスタム推論ルーティン
オンライン推論を取得する
エンドポイントを作成する
エンドポイントのタイプを選択する
パブリック エンドポイントを作成する
専用のパブリック エンドポイントを使用する(推奨)
Private Service Connect に基づく専用プライベート エンドポイントを使用する(推奨)
プライベート サービス アクセス エンドポイントを使用する
エンドポイントにモデルをデプロイする
モデルデプロイの概要
推論用のコンピューティング リソース
Google Cloud コンソールを使用してモデルをデプロイする
gcloud CLI または Vertex AI API を使用してモデルをデプロイする
ローリング デプロイを使用して、デプロイされたモデルを置き換える
モデルのデプロイを解除してエンドポイントを削除する
オンライン推論に Cloud TPU を使用する
推論で予約を使用する
推論で Flex Start VM を使用する
推論で Spot VM を使用する
オンライン推論を取得する
オンライン推論指標を表示する
エンドポイントの指標を表示する
DCGM 指標を表示する
デプロイ間でリソースを共有する
オンライン推論ロギングを使用する
バッチ推論を取得する
カスタムモデルからバッチ予測を取得する
セルフデプロイされた Model Garden モデルからバッチ予測を取得する
生成 AI モデルを提供する
生成 AI モデルをデプロイする
Saxml で Cloud TPU を使用して Gemma オープンモデルを提供する
Saxml でマルチホスト Cloud TPU を使用して Llama 3 オープンモデルを提供する
マルチホスト GPU デプロイを使用して DeepSeek-V3 モデルをサービングする
カスタムの組織のポリシー
Vertex AI 推論ノートブックのチュートリアル
ベクトル類似性検索を行う
ベクトル検索の概要
試してみる
使ってみる
ベクトル検索のクイックスタート
始める前に
ノートブック チュートリアル
ハイブリッド検索について
インデックスを作成して管理する
入力データの形式と構造
インデックスを作成して管理する
インデックス構成パラメータ
インデックスを更新して再構築する
ベクトル一致をフィルタする
BigQuery からインデックス データをインポートする
メタデータを含むエンベディング
インデックスをデプロイしてクエリを実行する
Private Service Connect(推奨)
Private Service Connect でベクトル検索を設定する
クエリ
JSON ウェブトークンの認証
パブリック エンドポイント
デプロイ
クエリ
プライベート サービス アクセス
VPC ネットワーク ピアリング接続を設定する
デプロイ
クエリ
JSON ウェブトークンの認証
デプロイされたインデックスをモニタリングする
カスタム組織ポリシーを使用する
サポートを受ける
ML オペレーション(MLOps)
特徴を管理する
Vertex AI での特徴管理
Vertex AI Feature Store
Vertex AI Feature Store について
特徴を設定する
データソースを準備する
特徴グループを作成する
特徴を作成する
オンライン サービングを設定する
オンライン サービングのタイプ
オンライン ストア インスタンスを作成する
特徴ビューのインスタンスを作成する
アクセスを制御する
リソースへのアクセスを制御する
オンライン ショップを同期する
データの同期を開始する
同期オペレーションを一覧表示する
特徴ビューの特徴を更新する
特徴をサービングする
オンライン ストアから特徴をサービングする
過去の特徴値をサービングする
モニタリング
モニタリング機能
特徴リソースを管理する
特徴グループのリストを取得する
特徴の一覧表示
特徴グループを更新する
特徴を更新する
特徴グループを削除する
特徴を削除する
オンライン ショップのリソースを管理する
オンライン ストアのリストを取得する
特徴ビューを一覧表示する
オンライン ストアを更新する
特徴ビューを更新する
オンライン ショップを削除する
特徴ビューを削除する
特徴メタデータ
ラベルの更新
リソースを検索
リソースを検索
Data Catalog でリソース メタデータを検索する
エンベディングを管理する