跳至主要内容
Google Cloud
文档 技术领域
  • AI 和机器学习
  • 应用开发
  • 应用托管
  • 计算
  • 数据分析和流水线
  • 数据库
  • 分布式云、混合云和多云
  • 生成式 AI
  • 行业解决方案
  • 网络
  • 可观测性和监控
  • 安全
  • Storage
跨产品工具
  • 访问权限和资源管理
  • 费用和用量管理
  • Google Cloud SDK、语言、框架和工具
  • 基础架构即代码
  • 迁移
相关网站
  • Google Cloud 首页
  • 免费试用和免费层级
  • 架构中心
  • 博客
  • 联系销售团队
  • Google Cloud 开发者中心
  • Google 开发者中心
  • Google Cloud Marketplace
  • Google Cloud Marketplace 文档
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud 支持团队
  • Google Cloud Tech YouTube 频道
/
  • English
  • Deutsch
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
控制台 登录
  • Vertex AI
指南 参考文档 示例 支持 资源
联系我们 免费开始使用吧
Google Cloud
  • 文档
    • 指南
    • 参考文档
    • 示例
    • 支持
    • 资源
  • 技术领域
    • 更多
  • 跨产品工具
    • 更多
  • 相关网站
    • 更多
  • 控制台
  • 联系我们
  • 免费开始使用吧
  • Discover
  • 概览
  • Vertex AI 简介
  • Vertex AI 上的 MLOps
  • Vertex AI 的界面
  • Vertex AI 新手指南
    • 训练 AutoML 模型
    • 训练自定义模型
    • 通过自定义模型进行推理
    • 使用 Vertex AI 和 Python SDK 训练模型
      • 简介
      • 前提条件
      • 创建笔记本
      • 创建数据集
      • 创建训练脚本
      • 训练模型
      • 推理
  • 集成式机器学习框架
    • PyTorch
    • TensorFlow
  • 面向 BigQuery 用户的 Vertex AI
  • 术语库
  • 开始使用
  • 设置项目和开发环境
  • 安装 Vertex AI SDK for Python
  • 选择训练方法
  • 试用教程
    • 教程概览
    • AutoML 教程
      • Hello 图片数据
        • 概览
        • 设置您的项目和环境
        • 创建数据集并导入图片
        • 训练 AutoML 图片分类模型
        • 评估和分析模型性能
        • 将模型部署到端点并进行推理
        • 清理您的项目
      • Hello 表格数据
        • 概览
        • 设置您的项目和环境
        • 创建数据集并训练 AutoML 分类模型
        • 部署模型并请求推理
        • 清理您的项目
    • 自定义训练教程
      • 训练自定义表格模型
      • 训练 TensorFlow Keras 图片分类模型
        • 概览
        • 设置您的项目和环境
        • 训练自定义图片分类模型
        • 提供自定义图片分类模型的预测结果
        • 清理您的项目
      • 使用自定义数据微调图片分类模型
    • 自定义训练笔记本教程
    • 使用 Terraform 创建用户管理的笔记本实例
  • 使用生成式 AI 和 LLM
  • 生成式 AI 简介
  • 使用 Vertex AI 开发工具
  • 开发工具概览
  • 使用 Vertex AI SDK
    • 概览
    • Vertex AI SDK for Python 简介
    • Vertex AI SDK for Python 类
      • Vertex AI SDK 类概览
      • 数据类
      • 训练类
      • 模型类
      • 预测类
      • 跟踪类
  • 在笔记本中使用 Vertex AI
    • 选择笔记本解决方案
    • Colab Enterprise
      • 快速入门:使用控制台创建笔记本
      • 连接到运行时
      • 管理运行时和运行时模板
        • 创建运行时模板
        • 创建运行时
    • Vertex AI Workbench
      • 简介
      • 笔记本教程
      • 开始使用
        • 使用控制台创建实例
        • 安排笔记本运行
      • 设置实例
        • 创建实例
        • 创建特定版本的实例
        • 创建具有用户凭据访问权限的实例
        • 使用机密计算创建实例
        • 添加 conda 环境
        • 空闲机器关停
        • 使用自定义容器创建实例
        • 创建启用了 Dataproc 的实例
        • 使用第三方凭据创建实例
        • 通过元数据管理功能
        • 使用预留
      • 连接到数据
        • 从 JupyterLab 查询 BigQuery 表中的数据
        • 访问 JupyterLab 中的 Cloud Storage 存储桶和文件
      • 探索和直观呈现数据
        • 在 BigQuery 中探索和直观呈现数据
      • 维护
        • 管理 conda 环境
        • 备份和恢复
          • 将笔记本保存到 GitHub
          • 使用快照
          • 使用 Cloud Storage
        • 关停实例
        • 升级实例的环境
        • 使用 SSH 访问 JupyterLab
        • 将数据迁移到新实例
        • 更改机器类型并配置 GPU
        • 使用 Terraform 预配资源
      • 监控
        • 监控健康状况
      • 控制访问权限
        • 访问权限控制
        • 管理对实例的访问权限
        • 管理对实例的 JupyterLab 界面的访问权限
        • 使用客户管理的加密密钥
        • 在服务边界内使用实例
      • 排查 Vertex AI Workbench 问题
      • Vertex AI Workbench 版本说明
      • 代管式笔记本
        • 代管式笔记本简介
        • 开始使用
          • 使用 Cloud 控制台创建代管式笔记本实例
          • 安排代管式笔记本运行
        • 设置托管式笔记本实例
          • 创建托管式笔记本实例
          • 使用自定义容器创建实例
          • 在 Dataproc 集群上运行代管式笔记本实例
          • 将 Dataproc Serverless Spark 与代管式笔记本搭配使用
          • 空闲机器关停
          • 代管式笔记本版本
        • 连接到数据
          • 从 JupyterLab 查询 BigQuery 表中的数据
          • 访问 JupyterLab 中的 Cloud Storage 存储桶和文件
        • 探索和直观呈现数据
          • 概览
          • 在 BigQuery 中探索和直观呈现数据
        • 开发模型
          • 在代管式笔记本实例中开发模型
        • 部署
          • 使用执行程序运行笔记本文件
          • 使用参数运行笔记本执行
        • 维护
          • 迁移到 Vertex AI Workbench 实例
          • 将笔记本保存到 GitHub
          • 更改机器类型并配置代管式笔记本实例的 GPU
          • 升级代管式笔记本实例的环境
          • 将数据迁移到新的代管式笔记本实例
        • 监控
          • 审核日志记录
        • 控制访问权限
          • 访问权限控制
          • 管理对实例的访问权限
          • 管理对实例的 JupyterLab 界面的访问权限
          • 使用客户管理的加密密钥
          • 设置网络
          • 在服务边界内使用代管式笔记本实例
        • 排查代管式笔记本问题
      • 用户管理的笔记本
        • 用户管理的笔记本简介
        • 开始使用
          • 使用 Cloud 控制台创建用户管理的笔记本实例
        • 设置用户管理的笔记本实例
          • 创建用户代管的笔记本实例
          • 创建特定版本的实例
          • 在补丁和支持终止日期后创建实例
          • 安装依赖项
          • 选择虚拟机映像
          • 使用自定义容器创建实例
        • 探索数据
          • 在 Google Cloud 上使用 R 进行数据科学研究:探索性数据分析教程
        • 监控
          • 监控健康状况
          • 审核日志记录
        • 控制访问权限
          • 访问权限控制
          • 管理对实例的访问权限
          • 管理对实例的 JupyterLab 界面的访问权限
          • 客户管理的加密密钥
          • 在服务边界内使用用户管理的笔记本实例
          • 将安全强化型虚拟机与用户管理的笔记本搭配使用
          • 教程:在 VPC 网络中创建笔记本实例
        • 维护
          • 迁移到 Vertex AI Workbench 实例
          • 将笔记本保存到 GitHub
          • 使用快照备份数据
          • 关停用户管理的笔记本实例
          • 更改机器类型并配置用户管理的笔记本实例的 GPU
          • 升级用户管理的笔记本实例的环境
          • 将数据迁移到新的用户管理的笔记本实例
          • 使用 Notebooks API 注册旧版实例
          • 使用 SSH 访问 JupyterLab
        • 排查用户管理的笔记本问题
  • Terraform 对 Vertex AI 的支持
  • 预测性 AI 模型开发
  • 概览
  • AutoML 模型开发
    • AutoML 训练概览
    • 图片数据
      • 分类
        • 准备数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取预测结果
        • 解读结果
      • 对象检测
        • 准备数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取预测结果
        • 解读结果
      • 使用 Base64 对图片数据进行编码
      • 导出 AutoML Edge 模型
    • 表格数据
      • 概览
      • 表格数据简介
      • 表格工作流
        • 概览
        • 特征工程
        • 端到端 AutoML
          • 概览
          • 训练模型
          • 获取在线推理结果
          • 获取批量推理结果
        • TabNet
          • 概览
          • 训练模型
          • 获取在线推理结果
          • 获取批量推理结果
        • Wide & Deep
          • 概览
          • 训练模型
          • 获取在线推理结果
          • 获取批量推理结果
        • 预测
          • 概览
          • 训练模型
          • 获取在线推理结果
          • 获取批量推理结果
        • 价格
        • 服务账号
        • 管理配额
      • 使用 AutoML 执行分类和回归
        • 概览
        • 快速入门:AutoML 分类(Cloud 控制台)
        • 准备训练数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 查看模型架构
        • 获取在线推理结果
        • 获取批量推理结果
        • 导出模型
      • 使用 AutoML 进行预测
        • 概览
        • 准备训练数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取推理结果
        • 分层预测
      • 使用 ARIMA+ 执行预测
      • 使用 Prophet 执行预测
      • 执行实体协调
      • 用于分类和回归的特征归因
      • 用于预测的特征归因
      • 适用于表格 AutoML 数据的数据类型和转换
      • 预测的训练参数
      • 表格数据的数据分块
      • 创建表格训练数据的最佳做法
      • 使用 Timeseries Insights 进行预测
    • 训练 AutoML Edge 模型
      • 使用控制台
      • 使用 API
    • AutoML Text(旧版)
      • 从 AutoML 文本迁移到 Gemini
      • 适用于 AutoML 文本用户的 Gemini
      • 文本数据
        • 分类
          • 准备数据
          • 创建数据集
          • 训练模型
          • 评估模型
          • 获取预测结果
          • 解读结果
        • 实体提取
          • 准备数据
          • 创建数据集
          • 训练模型
          • 评估模型
          • 获取预测结果
          • 解读结果
        • 情感分析
          • 准备数据
          • 创建数据集
          • 训练模型
          • 评估模型
          • 获取预测结果
          • 解读结果
  • 自定义训练
    • 自定义训练概览
    • 加载和准备数据
      • 数据准备概览
      • 将 Cloud Storage 用作已装载的文件系统
      • 装载 NFS 共享以进行自定义训练
      • 使用代管式数据集
    • Vertex AI 自定义训练
      • Vertex AI 中自定义训练的概览
      • 准备训练应用
        • 了解自定义训练服务
        • 准备训练代码
        • 使用预构建容器
          • 为预构建容器创建一个 Python 训练应用
          • 用于自定义训练的预构建容器
        • 使用自定义容器
          • 用于训练的自定义容器
          • 创建自定义容器
          • 在本地容器化和运行训练代码
        • 使用 Deep Learning VM Image 和 Deep Learning Containers
      • 在永久性资源上进行训练
        • 概览
        • 创建永久性资源
        • 在永久性资源上运行训练作业
        • 获取永久性资源信息
        • 重新启动永久性资源
        • 删除永久性资源
      • 配置训练作业
        • 选择自定义训练方法
        • 为训练配置容器设置
        • 配置用于训练的计算资源
        • 将预留与训练结合使用
        • 将 Spot 虚拟机用于训练
      • 提交训练作业
        • 创建自定义作业
        • 超参数调节
          • 超参数调节概览
          • 使用超参数调节
        • 创建训练流水线
        • 根据资源可用性安排作业
        • 使用分布式训练
        • 使用 Cloud TPU 虚拟机进行训练
        • 使用专用 IP 地址进行自定义训练
        • 使用 Private Service Connect 接口进行训练(推荐)
      • 执行神经架构搜索
        • 概览
        • 设置环境
        • 初级教程
        • 最佳实践和工作流
        • 代理任务设计
        • 优化 PyTorch 的训练速度
        • 使用预构建的训练容器和搜索空间
      • 监控和调试
        • 使用交互式 shell 监控和调试训练
        • 分析模型训练性能
      • 使用 Vertex AI Vizier 进行优化
        • Vertex AI Vizier 概览
        • 创建 Vertex AI Vizier 研究
        • Vertex AI Vizier 笔记本教程
      • 获取推理结果
      • 教程:构建用于持续训练的流水线
      • 创建自定义组织政策限制条件
    • Ray on Vertex AI
      • Ray on Vertex AI 概览
      • 为 Ray on Vertex AI 进行设置
      • 创建 Ray on Vertex AI 集群
      • 监控 Vertex AI 上的 Ray 集群
      • 扩缩 Ray on Vertex AI 集群
      • 在 Vertex AI 上开发 Ray 应用
      • 在 Ray on Vertex AI 集群上运行 Spark
      • 将 Ray on Vertex AI 与 BigQuery 搭配使用
      • 部署模型并获取推理结果
      • 删除 Ray 集群
      • Ray on Vertex AI 笔记本教程
  • 生成式 AI 模型开发
  • 概览
  • 创建和管理数据集
  • 概览
  • AutoML 模型的数据拆分
  • 创建注解集
  • 删除注释集
  • 添加标签(控制台)
  • 从数据集导出元数据和注解
  • 管理数据集版本
  • 使用 Data Catalog 搜索模型和数据集资源
  • 获取推理结果
  • 概览
  • 配置模型以进行推理
    • 导出模型工件以进行推理
    • 用于推理的预构建容器
    • 用于推理的自定义容器要求
    • 使用自定义容器进行推理
    • 使用任意自定义路线
    • 使用优化的 TensorFlow 运行时
    • 使用 NVIDIA Triton 提供推理服务
    • 自定义推理例程
  • 获取在线推理结果
    • 创建端点
      • 选择端点类型
      • 创建公共端点
      • 使用专用公共端点(推荐)
      • 使用基于 Private Service Connect 的专用私有端点(推荐)
      • 使用专用服务访问端点
    • 将模型部署到端点
      • 模型部署概览
      • 用于推理的计算资源
      • 使用 Google Cloud 控制台部署模型
      • 使用 gcloud CLI 或 Vertex AI API 部署模型
      • 使用滚动部署替换已部署的模型
      • 取消部署模型并删除端点
      • 使用 Cloud TPU 进行在线推理
      • 将预留与推理搭配使用
      • 将灵活启动虚拟机与推理搭配使用
      • 将 Spot 虚拟机与推理结合使用
    • 获取在线推理结果
    • 查看线上推理指标
      • 查看端点指标
      • 查看 DCGM 指标
    • 跨部署共享资源
    • 使用在线推理日志记录
  • 获取批量推理结果
    • 通过自定义模型进行批量预测
    • 从自行部署的 Model Garden 模型获取批量预测结果
  • 提供生成式 AI 模型
    • 部署生成式 AI 模型
    • 通过 Saxml 使用 Cloud TPU 提供 Gemma 开放模型
    • 使用 Saxml 通过多主机 Cloud TPU 应用 Llama 3 开放模型
    • 使用多主机 GPU 部署提供 DeepSeek-V3 模型
  • 自定义组织政策
  • Vertex AI 推理笔记本教程
  • 执行矢量相似度搜索
  • Vector Search 概览
  • 试试看
  • 开始使用
    • Vector Search 快速入门
    • 开始前的准备工作
    • 笔记本教程
  • 混合搜索简介
  • 创建和管理索引
    • 输入数据格式和结构
    • 创建和管理索引
    • 索引配置参数
    • 更新和重建索引
    • 过滤矢量匹配
    • 从 BigQuery 导入索引数据
    • 包含元数据的嵌入
  • 部署和查询索引
    • Private Service Connect(推荐)
      • 使用 Private Service Connect 设置 Vector Search
      • 查询
      • JSON Web 令牌身份验证
    • 公共端点
      • 部署
      • 查询
    • 专用服务访问通道
      • 设置 VPC 网络对等互连连接
      • 部署
      • 查询
      • JSON Web 令牌身份验证
  • 监控已部署的索引
  • 使用自定义组织政策
  • 获取支持
  • 机器学习操作 (MLOps)
  • 管理功能
    • Vertex AI 中的功能管理
    • Vertex AI Feature Store
      • 关于 Vertex AI Feature Store
      • 设置特征
        • 准备数据源
        • 创建特征组
        • 创建特征
      • 设置在线服务
        • 在线传送类型
        • 创建在线存储区实例
        • 创建特征视图实例
      • 控制访问权限
        • 控制对资源的访问权限
      • 同步在线存储区