Findy Tools
開発ツールのレビューサイト
目次
Xのツイートボタン
このエントリーをはてなブックマークに追加
Xのツイートボタン
このエントリーをはてなブックマークに追加
ML基盤におけるVertex AI活用事例 9社のアーキテクチャの工夫
公開日 更新日

ML基盤におけるVertex AI活用事例 9社のアーキテクチャの工夫

今回は、Findy Toolsにご寄稿頂いた、VertexAIレビュー記事と特集記事から、Google Cloudが提供する統合型AIプラットフォーム「VertexAI」を機械学習基盤に採用している企業のアーキテクチャをまとめました。各社の技術選定の背景や工夫などの知見を得ていただく場となれば幸いです。
※ご紹介は企業名のアルファベット順となっております

VertexAIとは

Vertex AIは、Google Cloudが提供する統合型のAIプラットフォームで、機械学習モデルの構築、トレーニング、デプロイ、管理を一元的に行うことができます。

▼VertexAIとは?機能や特徴・製品の概要まとめページはこちら
https://findy-tools.io/products/vertexai/396

▼Findy Tools編集部コメント
Vertex AIを導入する背景として、機械学習パイプラインの効率化と運用の簡素化が挙げられます。特に、レコメンド機能を新たに追加する際に、手動でのモデル再学習やデプロイの手間を省くために導入した、という事例が多くありました。

また、ツール選定の段階においては、各処理ステップに応じて最適なCPUやGPUリソースを柔軟に割り当てられること、コンポーネント間の依存関係を自動で構成して並列処理を実現できること、さらにCloud RunやCloud Schedulerといった他のGoogle Cloudサービスとのスムーズな連携ができる事などが評価されているようです。

導入の成果としては、パイプラインの自動化によるデータ処理やモデル学習の時間短縮、コンポーネントの再利用による新規パイプライン構築の高速化、さらには実行状況やエラーをリアルタイムで確認できるようになったことで、問題の早期発見・対応が可能になったこと等の声が多く上がりました。



コミューン株式会社




▼VertexAI 導入の背景・理由
プロダクトに新しくレコメンド機能を導入することになり,そのレコメンドリストを1日1回バッチで生成するための機械学習パイプラインを構築する必要がありました.当時は1人で開発していたため,運用の観点からもマネージドサービスを活用することを第一に考えていました.また,会社全体として Google Cloud を活用しているため,Google Cloud のサービスを念頭に置いていました.(一部抜粋)

▼アーキテクチャの意図・工夫
エンドユーザーに行う推薦として,関連した投稿を出すレコメンドやユーザー毎にパーソナライズしたレコメンドを行うために,Google Cloud の Vertex AI Pipelines を用いて機械学習パイプラインを構築しています.
新しくサービスを提供する企業が増えた場合に自動的にそれを検知し,対象となるテナントの自動追加を行い,実行すべき機械学習パイプラインを制御しています.(一部抜粋)


▼詳細はこちらから
Vertex AI Pipelinesを活用した機械学習パイプラインの構築(コミューン株式会社)
コミューンの機械学習基盤のアーキテクチャ(特集記事)


株式会社ディー・エヌ・エー




▼アーキテクチャの意図・工夫
機械学習システムの学習フェーズにおいては、Vertex AI Pipelinesを活用しています。これにより、機械学習の一連の工程を統合し、自動化しています。このワークフローは、テンプレート化された実装やTerraformモジュールを利用して簡単にデプロイできるため、機械学習エンジニアはその案件固有の実装に集中できます。モデルの推論が事前に行えるような場合では、このワークフローでモデル推論までを行います。例えばモバゲーのアセット検索のプロジェクトでは、検索対象のデータは更新の頻度が少なく、利用者のリクエストの度ではなく事前に推論ができるため、Vertex AI Pipelines上でモデル推論を行っています。(一部抜粋)

▼詳細はこちらから
ディー・エヌ・エーの機械学習基盤のアーキテクチャ(特集記事)


株式会社ジーニー




▼VertexAI 導入の背景・理由
Vertex AI Pipelinesは、以下の点が決め手となりました。
  • Google Cloud環境との統合性が高く、機械学習処理との相性が良いこと
  • Vertex AI Experimentsと連携することで実験履歴を管理し比較できること
  • サーバレスコンテナ実行環境(Vertex AI Training Job)による簡単なリソース管理が可能なこと

(一部抜粋)

▼アーキテクチャの意図・工夫

  • Vertex AI Pipelinesを採用し、シンプルなPythonで実装するコンポーネントや任意のDockerコンテナを実行できる柔軟性を重視しました
  • GCSをパイプラインのデータソースとすることにより、データクエリ・転送料金の削減を図りました
  • Parquet形式でのデータの保管によるコスト最適化・パフォーマンス向上を実現しました

(一部抜粋)


▼詳細はこちらから
推薦システムへのVertex AI Pipelinesの導入


GO株式会社




▼アーキテクチャの意図・工夫
タクシーアプリ『GO』は、時間帯や天候によって大きくトラフィックが変動するサービスです。
そのため、タクシーアプリ『GO』の機械学習基盤では、ユーザーの需要量に大きな変動をもたらす天候や交通情報などのリアルタイムデータを活用するために、FeatureStore基盤を整備しています。(一部抜粋)

▼詳細はこちらから
GOの機械学習基盤のアーキテクチャ(特集記事)


株式会社LayerX




▼VertexAI 導入の背景・理由
どのツールも一長一短で、悩ましいと考えていました。
そこで、チームに使い方を伝える際に一定肌感のあるものを使った方が利用を促進しやすいので、まず自分自身が使ったことのあるAirflowやVertex AI Pipelinesに絞りました。この二つだと、Airflowはチームで管理するプロジェクトが増えてきたときにUI上で色々なパイプラインを一元的に管理できたり、同じパイプラインの過去の実行履歴などに対しての横軸比較が簡単にできたりする部分が魅力的ではあったのですが、チーム規模やコストを考えてVertex AI Pipelinesを選択しました。(一部抜粋)

▼アーキテクチャの意図・工夫
Pull Requestがマージされたら実験で使っているパイプラインが特に意識せずとも本番で動いているパイプラインが更新されるようにしました。(一部抜粋)

▼詳細はこちらから
LayerXにおけるVertex AI Pipelinesの導入と活用
LayerXの機械学習基盤のアーキテクチャ(特集記事)


株式会社タイミー




▼VertexAI 導入の背景・理由
  • Vertex AI PipelinesがGoogle Cloud内のサービスなので、既存のインフラストラクチャとの連携が容易であったこと
  • スケーラビリティが高く、大規模なデータ処理や複雑なパイプラインに対応できること
  • マネージドサービスであるため、運用コストを削減できること

▼アーキテクチャの意図・工夫
タイミーのDSグループでは、複数人が様々な領域に対してVertex AI Pipelinesを活用して、機械学習モデルを構築、運用しています。 そのようなDSグループでは、下記のようなVertex AI Pipelinesの開発を効率的に行うための仕組みを構築しています。

  • モノレポ化を行い、グループ共通で運用していくシステムをそのモノレポ傘下に収めました。そうすることで、CI/CDの共通化、フォルダ構成、命名規則の統一、ベストプラクティスの共有が実現できています。

(一部抜粋)

▼詳細はこちらから
Vertex AI Pipelinesの効率的な開発、運用の取り組み


WED株式会社




▼VertexAI 導入の背景・理由
移行のスケジュールの観点やONEのサービス自体がGCPを元に構築されており、デプロイのフローやTerraformでの環境構築の環境が整っていたので採用しました。

▼アーキテクチャの意図・工夫
ONEのAPIとOCR、抽出を行うサービスの3つを、gRPCを使用してサービス間で接続して、OCRをするサービスがVertex AIのOnlinePredictionにリクエストを行い推論結果を受けとりONEのAPIにレスポンスを返しています。(一部抜粋)


▼詳細はこちらから
Vertex AI Online Predictionを使用した ONEのレシート情報抽出モデルのサービング


株式会社じげん




▼VertexAI 導入の背景・理由
インフラとしてGCPを利用していたため、他のサービスとの連携が容易で、導入コストが低かった。

▼導入の成果

  • レビュー文化の醸成とコード品質の向上:ノートブック中心の開発からソースコード管理に移行したことで、Pull Requestベースのレビューが可能になり、コードの可読性や保守性が大きく向上。実行前にレビュワーがバグを早期に発見できる体制が整いました。
  • 分業体制の実現と学習コストの削減:パイプラインにより処理が明確にコンポーネント化され、各メンバーが特定の処理だけを担当できるようになりました。これにより、新規メンバーでも機能改善に参加しやすくなり、チーム全体の開発効率が向上しました。

(一部抜粋)

▼詳細はこちらから
じげんにおけるVertex AI Pipelinesの導入事例


ファインディ株式会社




▼アーキテクチャの意図・工夫
ファインディが開発している「転職サービスFindy」のユーザー様に提供している推薦システムのモデル学習と推論において、上記のような学習・推論自動化パイプラインを構築しています。モデルの自動学習にはGoogle CloudのVertex AI Pipelines、モデルの推論にはAWSのElastic Container Service(ECS)のバッチ実行を採用しました。(一部抜粋)

▼詳細はこちらから
ファインディの機械学習基盤アーキテクチャ


関連した特集記事

関連ツール