Azure OpenAI Serviceを活用したレコメンドエンジンの構築事例
最終更新日 投稿日
アーキテクチャの工夫ポイント
私たちは、利用ユーザーが閲覧した要約に基づいて、ユーザーにあった要約を提供するためのレコメンドエンジンにAzure OpenAI Service を活用しています。
レコメンドエンジンの要となるのが、要約のベクトル化処理です。Azure OpenAI Embeddingモデルを用いることで、要約をベクトル化し、これを元にベクトル検索することでユーザーにあった要約を提供しています。
技術選定について
ベクトル化したデータの保存先には、ベクトル検索が簡単に実装ができ、初期費用を安く抑えられるCosmos DBを選択しました。Azure OpenAI Embeddingモデルでベクトル化したものをスムーズにCosmos DBに連携することができます。
運用面について
Cosmos DBとAzure OpenAI Embeddingを活用したレコメンドエンジンは、Azureのフルマネージドサービスで構成されているため、自動スケーリング機能などにより運用面の負荷を大幅に軽減できています。
成果や今後の展望
レコメンドエンジンとして、精度を向上させるためベクトル検索のさらなる活用法や生成AIと組み合わせた高度なレコメンド方法を検討しています。
◆執筆:
伊藤博昭・ゼネラルマネージャー・プロダクトデベロップメント
柳川 拓也・リーダー・プロダクトデベロップメント/Webアプリケーショングループ
会社情報

株式会社フライヤー
株式会社フライヤー(本社:東京都千代田区、代表取締役CEO 大賀康史)は、「ヒラメキあふれる世界をつくる」をミッションに、変化が激しい現代において、発想力が求められるビジネスパーソンのための「知」を軸とした様々な事業を創っています。