Vertex AIは、Google Cloudの機械学習プラットフォームです。
このプラットフォームを使うと、AIモデルの開発から運用までを効率的に行うことができます。
専門知識がなくても簡単にAIモデルを作れる機能や、大規模なデータに対応できる機能など、様々な特徴があります。Vertex AIについて詳しく解説いたします。
Vertex AIの概要
Vertex AI(バーテックスAI)は、Google Cloudが提供する統合機械学習プラットフォームです。
このプラットフォームは、機械学習モデルの開発、デプロイ、管理を効率的に行うための一連のツールを提供し、データサイエンティストや機械学習エンジニアが迅速にAIソリューションを構築できる環境を整えています。
Vertex AIの特徴・強み
統合されたワークフロー
Vertex AIは、モデルのトレーニング、評価、デプロイまでのプロセスを統一されたワークフローで管理可能です。
これにより、ワークフローの自動化が促進され、開発者の手間が削減され、効率的に作業が進められます。
モデル開発とトレーニング
- AutoML
専門知識がなくても、様々な種類のデータ(画像、テキスト、表形式データなど)から高精度なモデルを自動的に作成できます。 - カスタムトレーニング
TensorFlow、PyTorch、XGBoost、scikit-learnなど、お好みのフレームワークを使用して、高度なカスタムモデルを開発できます。 - ハイパーパラメータチューニング
モデルのパフォーマンスを最大化する最適なパラメータを自動で探索します。 - 分散トレーニング
大規模なモデルを複数のマシンで並列にトレーニングし、学習時間を短縮します。
専門知識が少ないユーザーでも、AutoMLを活用することで簡単にモデルを作成できます。
ただし、すべてのタスクが自動化できるわけではなく、複雑なタスクや特殊なデータセットでは、データの前処理や特徴エンジニアリングが必要となる場合がありますが、経験豊富なユーザーには、カスタムコードを使用して高度なモデルを作成できる柔軟性も提供されています。
モデルのデプロイと管理
- MLOps
モデルのライフサイクル全体を管理するためのツールセットが提供されており、モデルの監視、再トレーニング、A/Bテストなどを自動化できます。 - Model Registry
トレーニング済みのモデルを管理し、バージョン管理や比較を行うことができます。 - バッチ予測
大量のデータに対して一括で予測を実行できます。 - エンドポイント
作成したモデルをREST APIやgRPCで呼び出すことができるエンドポイントとしてデプロイします。
MLOpsは、モデルの開発、デプロイ、監視、再トレーニングなど、ライフサイクル全体をカバーする重要な概念です。
Vertex AIは、バージョン管理、モニタリング、スケーリングだけでなく、実験管理やA/Bテストなどもサポートし、モデルの実運用環境において効率的に管理できる環境を提供します。
スケーラビリティとパフォーマンス
Google Cloudのスケーラブルなインフラを活用し、Vertex AIは大量のデータセットや複雑なモデルに対応できます。
リソースは自動的にスケーリングされ、最適なパフォーマンスが維持されます。
AI Explainability(AIの解釈可能性)
Vertex AIには、モデルの予測結果を解釈するツールが組み込まれており、予測結果の根拠を確認できるだけでなく、モデルのバイアスや公平性の評価も可能です。
これにより、透明性の高いAIモデルを開発し、ビジネスの信頼性を向上させます。
Vertex AIと他プラットフォームの比較
機能/プラットフォーム | Vertex AI | Azure Machine Learning | Amazon SageMaker |
---|---|---|---|
料金体系 | 従量課金(詳細) | 従量課金+無料枠あり | 従量課金+無料枠あり |
統合性 | Google Cloudツールとの深い統合 | Azureデータサービスとの連携 | AWSサービスとの統合 |
AutoMLサポート | 強力なAutoML | AutoML機能あり | AutoML機能は限定的 |
MLOps | フルサポート | MLOps機能が充実 | MLOpsサポートあり |
パフォーマンスとスケーラビリティ | Google Cloudインフラを活用 | 強力なAzureインフラ | 幅広いAWSインフラ |
AI Explainability | 組み込みツール | 解釈可能性ツールあり | 一部ツールあり |
Google Cloudの他プロダクトとの連携
Vertex AIと連携できるGoogle Cloudのプロダクトは、非常に多く、その組み合わせによって実現できる機能も多岐にわたります。
ここでは一部を紹介し、本記事下部にて「Vertex AIと深く連携、全体をサポートする代表的なプロダクト」を紹介いたします。
BigQueryとの連携
BigQueryは、Google Cloudの大規模データウェアハウスであり、Vertex AIと統合して大規模なデータセットを迅速に処理し、モデルのトレーニングに利用できます。
データのクエリや分析も効率的に行えます。
Cloud Storageとの連携
Cloud Storageは、オブジェクトストレージサービスであり、Vertex AIのデータ保存に利用されます。
トレーニングデータや推論用データをスケーラブルに管理し、バッチ処理やストリーミング処理もサポートします。
DataflowやDataprocとの連携
Dataflowはリアルタイムデータ処理に特化し、DataprocはApache HadoopやSparkを使用したビッグデータ処理を行います。
これらを活用して、効率的なデータパイプラインを構築し、AIモデルにリアルタイムデータを反映させることができます。
Vertex AIのユースケース
- 産業の自動化: 製造業の品質管理や物流業の需要予測などに活用
- 自動運転技術: センサーや画像認識データの解析に活用
- 医療分野: 医療画像解析や治療支援システムの開発
- 自然言語対話システム: 顧客サービスやチャットボット
- 金融分野: 株価予測やリスク管理、不正検知
まとめ
「Vertex AI」は、Google Cloudの強力なインフラを活用し、機械学習モデルの開発から運用までをサポートする統合プラットフォームです。
AutoMLによる手軽なモデル作成から、カスタムモデル開発による高度なAI開発まで、様々なニーズに対応し、Google Cloudの他のサービスとの強力な連携によって、さまざまな業務に対応できる柔軟なAIソリューションを提供してくれます。
参考サイト:「Gemini 1.5 Pro と Gemini 1.5 Flash を使用した Vertex AI」→
Vertex AIと深く連携し、機械学習ライフサイクル全体をサポートする代表的なプロダクト
- BigQuery
大規模なデータセットの分析と機械学習モデルのトレーニングに最適です。Vertex AIと連携することで、BigQuery MLを使用して、SQLクエリで直接モデルをトレーニングしたり、予測を行ったりできます。
- Cloud Storage
モデルのトレーニングに必要なデータの格納や、トレーニング済みのモデルの保存に利用されます。
- Compute Engine
カスタムの仮想マシンで、大規模なモデルのトレーニングや、高性能な推論環境を構築できます。
- TensorFlow
Googleが開発したオープンソースの機械学習フレームワークで、Vertex AIと緊密に統合されています。
Vertex AIの機能を拡張するプロダクト
- Vertex AI Feature Store
機械学習モデルの特徴量を管理し、再利用するためのサービスです。
- Vertex AI Pipelines
機械学習パイプラインを構築し、自動化するためのサービスです。
- Vertex AI Model Registry
トレーニングされたモデルを管理し、バージョン管理を行うためのサービスです。
その他、連携可能なプロダクト
- Kubernets Engine
コンテナオーケストレーションプラットフォームで、Vertex AIのコンポーネントをデプロイすることができます。
- Cloud Dataflow
大規模なデータ処理パイプラインを構築するためのサービスです。
- Cloud Pub/Sub
イベント駆動型のデータパイプラインを構築するためのサービスです。
連携のメリット
- シームレスな統合
Google Cloudの各サービスが緊密に連携しているため、データの移動や変換の手間が省け、開発効率が向上します。
- スケーラビリティ
大規模なデータセットや複雑なモデルに対しても、柔軟に対応できます。
- マネージドサービス
Googleがインフラの管理を行うため、開発者はモデルの開発に集中できます。
具体的な連携の例
- 画像認識モデルの開発
Cloud Storageに画像データを格納し、AutoML Visionでモデルをトレーニング。
トレーニング済みのモデルをVertex AI Model Registryに登録し、Vertex AI Predictionで予測を行う。 - 自然言語処理モデルの開発
BigQueryにテキストデータを格納し、Vertex AIで自然言語処理モデルをトレーニング。
トレーニング済みのモデルをVertex AI Endpointにデプロイし、API経由で予測を行う。
Vertex AIと連携できるプロダクトは、今後もますます増えていくことが予想されます。
Vertex AI の料金の仕組み
ツールと使用状況 | 説明 | 料金 |
---|---|---|
生成 AI | 画像生成のための Imagen モデル画像入力、文字入力、またはカスタム トレーニングの料金に基づきます。 | Starting at$0.0001 |
テキスト、チャット、コードの生成1,000 文字単位の入力(プロンプト)と 1,000 文字単位の出力(レスポンス)に基づきます。 | Starting at$0.00011,000文字ごと | |
AutoML モデル | 画像データのトレーニング、デプロイ、予測リソース使用量を反映したノード時間あたりのトレーニング時間と、分類またはオブジェクト検出のいずれであるかに基づきます。 | Starting at$1.375ノード時間あたり |
動画データのトレーニングと予測ノード時間あたりの料金と、分類、オブジェクト トラッキング、動作認識に基づきます。 | Starting at$0.462ノード時間あたり | |
表形式データのトレーニングと予測ノード時間あたりの料金と、分類 / 回帰、または予測に基づきます。割引の可能性や料金の詳細については、営業担当者にお問い合わせください。 | お問い合わせ | |
テキストデータのアップロード、トレーニング、デプロイ、予測トレーニングと予測の 1 時間あたりの料金、アップロードしたレガシー データ(PDF のみ)のページ数、テキスト レコード数と予測したページ数に基づきます。 | Starting at$0.051 時間あたり | |
カスタム トレーニング済みモデル | カスタムモデルのトレーニング1 時間あたりに使用されるマシンタイプ、リージョン、使用されたアクセラレータに基づきます。Google の営業担当者を通じて、または料金計算ツールを使用して見積りを取得できます。 | お問い合わせ |
Vertex AI Notebooks | コンピューティングとストレージのリソースCompute Engine および Cloud Storage と同じレートに基づいています。 | プロダクトを参照する |
管理手数料上記のリソース使用量に加えて、使用するリージョン、インスタンス、ノートブック、マネージド ノートブックに応じて管理手数料が適用されます。 | 詳細を参照する | |
Vertex AI Pipelines | 実行料金と追加料金実行料金、使用したリソース、追加のサービス手数料に基づきます。 | Starting at$0.03パイプラインの実行あたり |
Vertex AI Vector Search | 利用料金と構築料金データのサイズ、実行する秒間クエリ数(QPS)、使用するノード数に基づきます。 |