Findy Tools
開発ツールのレビューサイト
検索結果がありません
目次
Xのツイートボタン
このエントリーをはてなブックマークに追加
Xのツイートボタン
このエントリーをはてなブックマークに追加
AI開発ツールカオスマップ 2025年度上期版
公開日 更新日

AI開発ツールカオスマップ 2025年度上期版

会員限定コンテンツです。無料登録すると制限なしでお読みいただけます。
無料登録してアーキテクチャを見る

LLMを活用したアプリケーション開発が本格化する中、開発者は従来とは全く違う技術選択の課題に直面しています。
「LangChainとLlamaIndexのどちらを選ぶべきか」「推論速度を上げるためにvLLMは必要か」「プロンプトのバージョン管理はどうするか」といった、LLM特有の技術判断が開発の成否を左右するようになりました。

本カオスマップは、2025年8月時点の情報をもとに、LLMアプリケーション開発・運用を支援する主要ツールを10のカテゴリに分類・整理したものです。「AI開発における技術スタックの全体像」と「開発フェーズ別のツール選択指針」を俯瞰的に把握できることを目的として作成しました。

なお、本記事で取り上げるツールは、「LLMアプリ開発・運用」に特化したものを中心に選定しており、一般的なソフトウェア開発支援ツールや機械学習の基盤技術は含まれておりません。また、本記事内でご紹介しているツールはあくまで一例であり、特定のツールの優劣を示すものではありません。予めご了承いただけますと幸いです。

AI開発ツールカオスマップ全体像

会員限定コンテンツ無料登録してアーキテクチャを見る

本マップは2025年8月時点の公開情報をもとに作成しております。
掲載しているロゴ・商標等の取り扱いについて問題や懸念がございましたら、下記の窓口までご連絡くださいますようお願い申し上げます。
また、ロゴの掲載をご希望される場合も、お問い合わせいただけますと幸いです。

【お問い合わせ先】
ファインディ株式会社 AI駆動開発ツールカオスマップ制作担当者
findy_tools@findy.co.jp

次のセクションからは各カテゴリの解説や導入時のポイントをご紹介していきます。


LLMアプリ開発フレームワーク

LLMアプリ開発フレームワークは、LLMを活用したアプリケーションの構築を効率化するためのライブラリ・SDK・プラットフォーム群を指します。
プロンプト設計、チェーン構築、外部ツール連携、エージェント実装等の複雑な処理を抽象化し、開発者がビジネスロジックに集中できる環境を提供します。これは「モデル開発プラットフォーム」の中核として、アプリケーション構築の効率化に焦点を当てています。

■ このカテゴリのツール例

LangChain最も普及しているLLMアプリ開発フレームワーク。プロンプトテンプレート、チェーン、エージェント、外部ツール統合を包括的にサポート。
LangChainツールページはこちら
AutoGenMicrosoftが開発するマルチエージェント会話フレームワーク。複数のAIエージェントが協調して複雑なタスクを解決。
AutoGenツールページはこちら
LlamaIndexデータ接続とRAG(Retrieval-Augmented Generation)に特化したフレームワーク。文書検索・知識ベース構築に強み。
LlamaIndexツールページはこちら

■ 特徴と役割

  • プロンプトエンジニアリングとチェーン構築を標準化し、開発効率を向上
  • 外部API・データベース・ファイルI/Oの統一的な呼び出しインターフェースを提供
  • RAG・エージェント・マルチモーダル処理等の高度な機能を簡単に実装可能
  • LLM呼び出し、ログ、リトライ処理等の共通機能を抽象化

■ ツール選定時のポイント

  • 機能範囲:RAG、エージェント、マルチモーダル、ツール統合等の必要機能への対応
  • LLMプロバイダー対応:OpenAI、Anthropic、オープンソースモデル等への統合レベル
  • 学習コスト:ドキュメント充実度、コミュニティサイズ、サンプルコードの豊富さ
  • 拡張性:カスタムツール・プラグインの開発容易さ、企業要件への対応度
  • パフォーマンス:実行速度、メモリ使用量、並列処理への対応

ワークフロー管理

ワークフロー管理ツールは、機械学習・LLM開発における複雑な処理パイプラインを設計・実行・監視するためのオーケストレーションプラットフォーム群を指します。
データ前処理、モデル学習、評価、デプロイメントまでの一連の処理を自動化し、依存関係管理・エラーハンドリング・スケジューリングを統合的に制御します。LLM開発フローにおいて、アプリケーション開発フェーズから運用フェーズまで横断的に活用され、開発・運用の効率化と信頼性向上を支援します。

■ このカテゴリのツール例

Apache Airflow最も普及しているワークフローオーケストレーションツール。PythonベースのDAG定義により柔軟なパイプライン構築が可能。
Apache Airflowツールページはこちら
n8n技術チーム向けの柔軟なAIワークフロー自動化プラットフォーム。コードとUIを両立し、オンプレミス/クラウドの選択が可能。
Apache Airflowツールページはこちら
Prefectモダンなワークフローエンジン。直感的なPython APIと強力な監視・デバッグ機能により、開発者体験を向上。
Prefectツールページはこちら

■ 特徴と役割

  • 複雑な処理依存関係を視覚的に管理し、パイプライン全体の透明性を確保
  • 自動リトライ・エラーハンドリング・アラート通知により、運用の安定性を向上
  • スケジューリング・トリガー機能により、定期実行や条件付き実行を自動化
  • 分散処理・並列実行により、大規模データ・計算集約的タスクを効率的に処理

■ ツール選定時のポイント

  • 学習コスト:DAG定義の複雑さ、UI/UXの使いやすさ、ドキュメント充実度
  • スケーラビリティ:分散実行、並列処理、大規模データ処理への対応力
  • 監視・デバッグ:実行状況の可視化、ログ管理、エラー追跡の充実度
  • 統合性:既存MLツール・クラウドサービス・データベースとの連携度
  • 運用性:デプロイの複雑さ、保守性、セキュリティ・権限管理の充実度

推論最適化

推論最適化ツールは、LLMの推論速度・メモリ効率・スループットを向上させるためのエンジンやライブラリ群を指します。
量子化・並列処理・KVキャッシュ最適化・バッチング等の技術により、同じモデルでもより高速・低コストで実行できる点が特徴です。これは「モデル基盤」のインフラ層に位置しますが、モデル開発プラットフォームでも広く活用され、開発から運用まで横断的に重要な役割を果たします。

■ このカテゴリのツール例

vLLM高速なLLM推論エンジン。PagedAttentionによるメモリ効率化とバッチ処理最適化により、大幅な性能向上を実現。
vLLMツールページはこちら
TensorRT-LLMNVIDIAのGPU最適化推論エンジン。CUDA最適化により、NVIDIA GPU環境で最高クラスの推論性能を提供。
TensorRT-LLMツールページはこちら
SGLang構造化生成(JSON、コード等)に特化した推論エンジン。複雑な出力フォーマット要求に対する効率的な処理を実現。
SGLangツールページはこちら

■ 特徴と役割

  • 量子化・圧縮技術により、メモリ使用量を削減しつつ精度を維持
  • 並列処理・バッチング最適化により、スループットを大幅に向上
  • KVキャッシュ・アテンション機構の最適化により、長文処理の効率化を実現
  • ハードウェア特性(GPU、CPU、専用チップ)に応じた最適化を提供

■ ツール選定時のポイント

  • 対応ハードウェア:NVIDIA GPU、AMD GPU、CPU、専用推論チップへの最適化レベル
  • モデル対応範囲:Llama、Mistral、GPT系等の主要アーキテクチャへの対応状況
  • 最適化手法:量子化(INT8、INT4)、並列化、メモリ効率化の組み合わせ
  • 統合性:既存フレームワーク(LangChain、FastAPI等)との連携の容易さ
  • 運用性:デプロイの複雑さ、監視・デバッグの容易さ、スケーラビリティ

API管理

API管理ツールは、複数のLLMプロバイダー(OpenAI、Anthropic、Google等)への統一的なアクセスを提供し、コスト管理・フェイルオーバー・ルーティングを一元化するプラットフォーム群を指します。
単一プロバイダーに依存せず、プロバイダー間の切り替えやロードバランシングを自動化することで、可用性とコスト効率を向上させる点が特徴です。

■ このカテゴリのツール例

LiteLLM異なるLLMプロバイダーのAPIを統一的に扱うためのライブラリ。OpenAI形式の統一インターフェースで複数プロバイダーにアクセス可能。
LiteLLMツールページはこちら
PortkeyAPIキーの管理、コスト追跡、フェイルオーバー機能を提供する包括的なLLMゲートウェイプラットフォーム。
Portkeyツールページはこちら
MartianLLMアプリケーション向けのAPI管理・監視・最適化を提供するエンタープライズ向けプラットフォーム。
Martianツールページはこちら

■ 特徴と役割

  • 複数LLMプロバイダーの統一的なAPI管理により、ベンダーロックインを回避
  • APIキー・認証・レート制限の一元管理で、セキュリティとガバナンスを強化
  • 自動フェイルオーバーとロードバランシングにより、サービス可用性を向上
  • コスト追跡・使用量分析により、LLM利用の最適化と予算管理を支援

■ ツール選定時のポイント

  • 対応プロバイダー範囲:主要LLMプロバイダー(OpenAI、Anthropic、Google、Azure等)への対応状況
  • フェイルオーバー機能:プロバイダー障害時の自動切り替えやリトライ戦略の柔軟性
  • コスト管理機能:使用量追跡、予算アラート、コスト最適化の自動化レベル
  • セキュリティ・ガバナンス:APIキー管理、アクセス制御、監査ログの充実度
  • 統合の容易さ:既存アプリケーションへの導入難易度、SDK・ライブラリの充実度

ローカルLLM実行環境

ローカルLLM実行環境ツールは、クラウドAPIに依存せず、自社サーバーや個人PCでLLMを実行するためのプラットフォーム群を指します。
データプライバシー保護、外部API費用の削減、ネットワーク依存の排除が主な利点で、機密情報を扱う企業や開発者の実験環境で重要な役割を果たします。

■ このカテゴリのツール例

LM StudioGUIベースのデスクトップアプリケーション。直感的な操作でモデルのダウンロード・実行・チャットが可能。初心者に優しいインターフェース。
LM Studioツールページはこちら
Ollamaコマンドラインベースの軽量なLLM実行環境。Dockerライクなシンプルなコマンドでモデル管理・実行が可能。開発者向け。
Ollamaツールページはこちら
Janオープンソースのクロスプラットフォーム対応デスクトップLLMアプリケーション。プライバシー重視の設計でローカル実行に特化。
Janツールページはこちら

■ 特徴と役割

  • データが外部に送信されないため、機密情報や個人情報の保護を完全に担保
  • クラウドAPI費用を削減し、大量利用時のコスト効率を向上
  • ネットワーク接続に依存しない安定した実行環境を提供
  • 実験・プロトタイピング段階での高速なイテレーションを支援

■ ツール選定時のポイント

  • 対応モデル範囲:Llama、Mistral、Code Llama等の主要オープンソースモデルへの対応状況
  • ハードウェア要件:必要なGPUメモリ、CPU性能、ディスク容量の現実的な範囲
  • ユーザビリティ:GUI vs CLI、モデル管理の容易さ、設定の複雑さ
  • 統合性:既存開発環境(IDE、フレームワーク)との連携の容易さ
  • パフォーマンス:推論速度、メモリ効率、バッチ処理への対応度

実験追跡・モデル管理

実験追跡・モデル管理ツールは、機械学習・LLMの開発段階における実験の再現性・比較・履歴管理を支援するプラットフォーム群を指します。
パラメータ、メトリクス、アーティファクト、モデル登録を体系的に管理し、開発チームでの知見共有と効率的な実験サイクルを実現します。これは主に開発フェーズの管理に特化しており、本番運用での監視を主眼とする「オブザーバビリティ」とは異なる役割を担います。

■ このカテゴリのツール例

MLflowオープンソースのMLOpsプラットフォーム。実験追跡、モデル管理、デプロイメントを統合的にサポート。業界標準的な地位を確立。
MLflowツールページはこちら
Weights & Biasesクラウドベースの実験追跡・可視化プラットフォーム。リアルタイムでの実験監視と美しいダッシュボードが特徴。
Weights & Biasesツールページはこちら
Neptune.aiメタデータ管理に特化した実験追跡ツール。長期間の実験履歴管理と高度な検索・フィルタリング機能を提供。
Neptune.aiツールページはこちら

■ 特徴と役割

  • 実験パラメータ・結果・アーティファクトの体系的な記録と版管理
  • 複数実験の比較・可視化により、最適なモデル・設定の特定を支援
  • チーム間での実験結果共有と知見蓄積の促進
  • モデルのライフサイクル管理(開発→ステージング→本番)の自動化

■ ツール選定時のポイント

  • 統合性:既存ML/LLMフレームワーク(PyTorch、TensorFlow、LangChain等)との連携度
  • 可視化機能:実験結果の比較・分析・レポート生成の充実度
  • スケーラビリティ:大規模実験・長期履歴・チーム利用への対応力
  • デプロイ連携:実験結果から本番デプロイまでのワークフロー自動化
  • コスト・運用性:クラウド vs オンプレミス、ストレージ費用、管理の複雑さ

LLMOpsオーケストレーション

LLMOpsオーケストレーションツールは、LLMアプリケーションの本番運用における監視・制御・最適化を一気通貫で支援するプラットフォーム群を指します。
リクエストの流れや処理手順を設計・制御し、品質監視・コスト管理・A/Bテスト・フォールバック等を自動化することで、安定かつ効率的な運用を実現します。これは「監視=見る」と「オーケストレーション=さばく(流れを制御する)」の両方を包含し、本番運用に特化したカテゴリです。

■ このカテゴリのツール例

Literal AILLMアプリケーションの実行トレース・評価・デバッグを統合的にサポート。開発から運用まで一貫したオブザーバビリティを提供。
Literal AIツールページはこちら
LunaryオープンソースのLLMOps監視・分析プラットフォーム。コスト追跡、品質評価、ユーザーフィードバック管理を統合。
Lunaryツールページはこちら
HoneyHiveエンタープライズ向けLLMOpsプラットフォーム。本番環境での品質監視・A/Bテスト・インシデント対応を包括的に支援。
HoneyHiveツールページはこちら

■ 特徴と役割

  • リアルタイムでの品質・パフォーマンス・コスト監視とアラート通知
  • A/Bテスト・段階的ロールアウトによる安全なモデル・プロンプト更新
  • 自動フォールバック・リトライ・ルーティングによる可用性向上
  • ログ収集・トレース・評価による継続的な改善サイクルの自動化

■ ツール選定時のポイント

  • 監視範囲:品質指標(精度、ハルシネーション等)、運用指標(レイテンシ、コスト等)の網羅度
  • 制御機能:フォールバック、ルーティング、レート制限、A/B配信の自動化レベル
  • 統合性:既存LLMフレームワーク・インフラ・監視ツールとの連携度
  • アラート・対応:異常検知の精度、通知設定の柔軟性、インシデント対応の自動化
  • スケーラビリティ:大規模トラフィック・長期データ保持・マルチテナント対応

ファインチューニング

ファインチューニングツールは、事前学習済みLLMを特定のタスクやドメインに適応させるための学習・最適化プラットフォーム群を指します。
LoRA・QLoRA・フル微調整等の手法を用いて、限られた計算資源でも効率的にモデルをカスタマイズし、特定用途での性能向上を実現します。LLM開発フローにおいて、プロンプト/RAGアプローチと並ぶ重要な選択肢として、モデル開発フェーズで中核的な役割を果たします。

■ このカテゴリのツール例

Axolotl様々なファインチューニング手法を統合したオープンソースフレームワーク。LoRA、QLoRA、フル微調整を簡単に実行可能。
Axolotlツールページはこちら
LLaMA-FactoryLLaMAファミリーのファインチューニングに特化したツール。WebUIと豊富な事前設定により、初心者でも簡単に利用可能。
LLaMA-Factoryツールページはこちら
Unsloth高速・省メモリなファインチューニングを実現するライブラリ。従来手法と比較して大幅な学習時間短縮を実現。
Unslothツールページはこちら

■ 特徴と役割

  • LoRA・QLoRA等の効率的な微調整手法により、計算コストを大幅削減
  • 特定ドメイン(法務、医療、金融等)への適応により、汎用モデルを上回る性能を実現
  • 企業固有のデータ・知識を学習させ、カスタマイズされたAIアシスタントを構築
  • 推論時の外部知識参照が不要となり、レスポンス速度とプライバシーを向上

■ ツール選定時のポイント

  • 対応手法:LoRA、QLoRA、AdaLoRA、フル微調整等の選択肢と最適化度
  • モデル対応範囲:Llama、Mistral、Gemma等の主要オープンソースモデルへの対応
  • 計算効率:メモリ使用量、学習時間、必要GPU数の最適化レベル
  • 使いやすさ:設定の複雑さ、WebUI提供、デフォルト設定の妥当性
  • 統合性:既存MLフレームワーク・実験追跡ツール・デプロイ環境との連携度

プロンプト管理

プロンプト管理ツールは、LLMアプリケーションにおけるプロンプトの設計・バージョン管理・テスト・デプロイを体系化するプラットフォーム群を指します。
プロンプトエンジニアリングの試行錯誤を効率化し、チーム間でのプロンプト資産共有、A/Bテスト、本番環境での安全なプロンプト更新を支援します。LLM開発フローにおいて、開発準備・計画フェーズから継続的に使用される重要なカテゴリです。

■ このカテゴリのツール例

Agentaオープンソースのプロンプト管理・評価プラットフォーム。プロンプトのバージョン管理とA/Bテストを統合的にサポート。
Agentaツールページはこちら
PromptLayerプロンプトの実行履歴・分析・最適化に特化したクラウドサービス。OpenAI API等との統合が簡単。
PromptLayerツールページはこちら

■ 特徴と役割

  • プロンプトテンプレートの体系的な管理とバージョン履歴の追跡
  • A/Bテスト・多変量テストによるプロンプト最適化の自動化
  • 本番環境でのプロンプト更新時の安全性確保(段階的ロールアウト等)
  • チーム間でのプロンプト資産共有と知見蓄積の促進

■ ツール選定時のポイント

  • バージョン管理機能:プロンプト履歴の追跡、ロールバック、ブランチ管理の充実度
  • テスト・評価機能:A/Bテスト、自動評価、パフォーマンス分析の自動化レベル
  • 統合性:既存LLMフレームワーク・API・CI/CDパイプラインとの連携度
  • コラボレーション:チーム権限管理、レビューワークフロー、コメント機能の充実度
  • 運用性:本番デプロイの安全性、監視機能、アラート・通知の設定柔軟性

LLM品質評価

LLM品質評価ツールは、LLMの出力品質・安全性・性能を客観的に測定・分析するためのフレームワーク・プラットフォーム群を指します。
自動評価指標の算出、ベンチマークテストの実行、ハルシネーション検出、バイアス分析等により、LLMの信頼性と実用性を定量的に評価します。LLM開発フローにおいて評価設計から継続改善まで横断的に活用され、開発・運用の両フェーズで品質保証の中核を担います。

■ このカテゴリのツール例

PromptfooプロンプトとLLMの品質評価に特化したオープンソースツール。カスタム評価指標の設定と自動テストの実行が可能。
Promptfooツールページはこちら
RAGASRAG(Retrieval-Augmented Generation)システムの評価に特化したフレームワーク。検索品質と生成品質を包括的に測定。
RAGASツールページはこちら
TruLensLLMアプリケーションの透明性と信頼性評価に焦点を当てたツール。説明可能性とバイアス検出に強み。
TruLensツールページはこちら

■ 特徴と役割

  • 精度・関連性・一貫性等の品質指標を自動算出し、客観的な性能評価を実現
  • ハルシネーション・バイアス・有害コンテンツ等の安全性リスクを定量的に検出
  • ベンチマークデータセットによる標準的な性能比較と競合分析を支援
  • A/Bテスト・回帰テストにより、モデル・プロンプト変更の影響を継続監視

■ ツール選定時のポイント

  • 評価指標の網羅性:精度、関連性、安全性、効率性等の多面的評価への対応
  • 自動化レベル:評価実行、結果分析、レポート生成の自動化度合い
  • カスタマイズ性:業界・用途固有の評価指標や基準の設定柔軟性
  • 統合性:既存開発・運用ワークフローへの組み込みやすさ
  • スケーラビリティ:大規模データセット・継続的評価への対応力

終わりに

本カオスマップでは、AI開発領域のツールを 10 つのカテゴリに分類し、各領域の役割と導入時の判断基準を整理いたしました。

このツール群の全景から見えてくるのは、AIが従来の「開発作業の自動化」という枠組みを越えて、LLMアプリケーション構築という "全く新しい技術領域の土台" として機能していることです。アプリケーションフレームワークから本番運用まで、従来のWebアプリケーション開発とは根本的に異なる技術スタックと専門知識が必要となり、AI特有の開発形態が急速に形成されています。

肝要なのは、これらのツールを「トレンドに追従して採用する」のではなく、組織のAI戦略の成熟段階と開発チームのケイパビリティを見極めた上で、どの技術領域から優先的に投資すべきか を慎重に見定めることです。 本マップが、AI開発の技術的全体像を理解し、将来のAI開発投資戦略を立案する際の有用な参考資料として機能し、読者の皆様の意思決定に価値ある洞察を与えることができれば幸いです。

最後までお読みいただき、ありがとうございました。

関連した特集記事

関連ツール

関連するツールを調べる

Dify

AIコード生成

Dify

LangChain

LLMアプリ開発フレームワーク

LangChain

LangGraph

LLMアプリ開発フレームワーク

LangGraph

Mastra

AI/ML監視

Mastra

Apache Airflow

ワークフロー自動化・連携

Apache Airflow

Prefect

ワークフロー自動化・連携

Prefect

Ollama

ローカルLLM実行環境

Ollama

LiteLLM

API管理

LiteLLM

Portkey

API管理

Portkey

Martian

API管理

Martian

Orq.ai

API管理

Orq.ai

OpenRouter

API管理

OpenRouter

Eden AI

API管理

Eden AI

LM Studio

ローカルLLM実行環境

LM Studio

Jan

ローカルLLM実行環境

Jan

GPT4All

ローカルLLM実行環境

GPT4All

LocalAI

ローカルLLM実行環境

LocalAI

PrivateFindr

ローカルLLM実行環境

PrivateFindr

vLLM

推論最適化

vLLM

TensorRT-LLM

推論最適化

TensorRT-LLM

SGLang

推論最適化

SGLang

ONNX Runtime

推論最適化

ONNX Runtime

BentoML

推論最適化

BentoML

Cerebras Inference

推論最適化

Cerebras Inference

SambaNova

推論最適化

SambaNova

AutoGen

LLMアプリ開発フレームワーク

AutoGen

Semantic Kernel

LLMアプリ開発フレームワーク

Semantic Kernel

CrewAI

LLMアプリ開発フレームワーク

CrewAI

Akka

LLMアプリ開発フレームワーク

Akka

Haystack

LLMアプリ開発フレームワーク

Haystack

DSPy

LLMアプリ開発フレームワーク

DSPy

LlamaIndex

LLMアプリ開発フレームワーク

LlamaIndex

Flowise

LLMアプリ開発フレームワーク

Flowise

Langflow

LLMアプリ開発フレームワーク

Langflow

Langroid

LLMアプリ開発フレームワーク

Langroid

Griptape

LLMアプリ開発フレームワーク

Griptape

Txtai

LLMアプリ開発フレームワーク

Txtai

Mirascope

LLMアプリ開発フレームワーク

Mirascope

Langbase

LLMアプリ開発フレームワーク

Langbase

Neptune.ai

実験追跡・モデル管理

Neptune.ai

MLflow

実験追跡・モデル管理

MLflow

Weights & Biases

実験追跡・モデル管理

Weights & Biases

ClearML

実験追跡・モデル管理

ClearML

DVC

実験追跡・モデル管理

DVC

Valohai

実験追跡・モデル管理

Valohai

Aimstack

実験追跡・モデル管理

Aimstack

Agenta

プロンプト管理

Agenta

PromptLayer

プロンプト管理

PromptLayer

Vellum

LLMOpsオーケストレーション

Vellum

Langdock

プロンプト管理

Langdock

PromptHub

プロンプト管理

PromptHub

PromptFoundry

プロンプト管理

PromptFoundry

Literal AI

LLMOpsオーケストレーション

Literal AI

Lunary

LLMOpsオーケストレーション

Lunary

Opik

LLMOpsオーケストレーション

Opik

Parea AI

LLMOpsオーケストレーション

Parea AI

Pezzo

LLMOpsオーケストレーション

Pezzo

Keywords AI

LLMOpsオーケストレーション

Keywords AI

Humanloop

LLMOpsオーケストレーション

Humanloop

LangWatch

LLMOpsオーケストレーション

LangWatch

Laminar

LLMOpsオーケストレーション

Laminar

HoneyHive

LLMOpsオーケストレーション

HoneyHive

Arize Phoenix

LLMOpsオーケストレーション

Arize Phoenix

OpenPipe

LLMOpsオーケストレーション

OpenPipe

Axolotl

ファインチューニング

Axolotl

LLaMA-Factory

ファインチューニング

LLaMA-Factory

Monster API

ファインチューニング

Monster API

Predibase

ファインチューニング

Predibase

Unsloth

ファインチューニング

Unsloth

Promptfoo

LLM品質評価

Promptfoo

Giskard

LLM品質評価

Giskard

LM Evaluation Harness

LLM品質評価

LM Evaluation Harness

Ragas

LLM品質評価

Ragas

TruLens

LLM品質評価

TruLens

Galileo AI

LLM品質評価

Galileo AI

Braintrust

LLM品質評価

Braintrust