"AIツール入れたけど効果あるの?"に数字で答える——Findy AI+の分析ワークフロー実践ガイド

こんにちは。

ファインディ株式会社でFindy AI+の開発をしているdanです。

Findy AI+は、AIツールを導入したけれど、実際にどれくらい効果があるのかという問いに対して定量的に答えるための分析ワークフローを新たにリリースしました。

今回は、これらのワークフローを使って実際にどのような示唆を得られるのかについて実践形式で紹介します。AIツールを導入したものの効果が見えづらいと感じているEMやPdM、チームの活用状況を把握したいエンジニアの方に向けて、MCPサーバーとGitHub Actionsそれぞれでの実行手順と、分析結果からチームの改善ポイントを見つけるまでの流れを紹介します。

Findy AI+とは

Findy AI+は、GitHub連携やプロンプト指示を通じて生成AIアクティビティを可視化し、生成AIの利活用向上を支援するサービスです。

人と生成AIの協働を後押しし、開発組織の変革をサポートします。

Claude Code、GitHub Copilot、Codex、Devinなど様々なAIツールの利活用を横断的に分析しています。

今回リリースされた分析ワークフローはMCPサーバー・GitHub Actionsの両方に対応しており、定期的に開発組織の状態について改善サイクルを回せる仕組みをサポートしています。

開発チームで分析してみた

ファインディのある開発チームで分析してみました。 分析ワークフローは7種類ありますが、今回はそのうち2つをMCPサーバー経由、GitHub Actions経由の両方で実行しています。

AI環境整備コミット履歴分析(MCPサーバー経由)

AI設定ファイルへの貢献者を分析することができます。コミッター統計、PR作成者統計、ファイル別の分析結果が表示されるため、有識者の把握やナレッジ共有のきっかけにすることができます。

MCPサーバー経由の分析は、VS Codeを使用していればChatからスラッシュコマンドを実行するだけで始められます。

Claude Codeでスラッシュコマンドを実行

コマンドを実行すると、対話形式でリポジトリ名・開始日・終了日の3つのパラメータを順番に入力していきます。

リポジトリ名の入力 開始日の入力 終了日の入力

次のようなプロンプトで分析を依頼できます。

以下の条件でAI設定ファイルへの貢献を分析してください:

【分析対象】
- リポジトリ: Repository-A
- 期間: 2025-10-01から2026-02-28

【分析観点】
- AIツールの設定に最も貢献しているメンバーの特定
- 設定ファイルごとのメンテナンス状況
- 貢献パターンや傾向の洞察

パラメータの入力が完了すると、MCPサーバーへのツール実行許可を求められます。内容を確認して許可すると、分析が開始されます。

MCPツール実行の許可確認

MCPサーバーのツール実行結果です。

Ran AI Configuration File Contributions

Input
{
  "repository": "Repository-A",
  "date_from": "2025-10-01",
  "date_to": "2026-02-28"
}

Output
# AI環境整備コミット履歴分析レポート

**リポジトリ**: Org/Repository-A
**分析期間**: 2025-10-01 〜 2026-02-28
**分析実行日**: 2026年03月26日

## 🎯 論点別サマリ

### 論点1: 誰がAI活用環境整備に貢献しているか?上位は誰か?

**回答**: user1が圧倒的な貢献者で全体の73.5%を占める。次いでuser2が20.6%、user3とuser4が少数貢献。

**インサイト**: user1が中心的役割を担い、特に2025年12月に集中的なリファクタリングと拡充を実施。user2は初期構築とCI整備に貢献。

### 論点2: 最後に最新化されたのはいつか?更新が古すぎないか?

**回答**: 最終更新は2026-01-21で約2ヶ月前。月平均7.0コミットで継続的に更新されているが、直近2ヶ月は停滞気味。

**インサイト**: 2025年12月に大規模な整備が完了後、更新が減少。定期的なメンテナンスサイクルの確立が望ましい。

## 1. 貢献パターン分析

**インサイト**: user1は.claude/context/配下の構造化に注力(11コミット)し、アーキテクチャ設計を主導。user2はCI/CDとエージェント初期設定に特化。役割分担が明確。

---

📊 貢献者別コミット割合
user1  ███████████████░░░░░ 73.5% (25件)
user2  ████░░░░░░░░░░░░░░░░ 20.6%  (7件)
user3  █░░░░░░░░░░░░░░░░░░░  5.9%  (2件)
user4  █░░░░░░░░░░░░░░░░░░░  2.9%  (1件)

分析が完了すると、次のようなレポートが出力されます。トップコントリビューターの一覧、設定ファイル別のメンテナンス状況、月別コミット推移などが可視化されており、誰がいつどのファイルを整備したのかが一目で分かります。

一部出力内容ですが、出力データをもとに、メンテナンス状況と貢献パターンのサマリーも整理されます。

## AI設定ファイル貢献分析レポート

**リポジトリ**: Org/Repository-A | **期間**: 2025-10-01 〜 2026-02-28

### 1. 設定ファイルごとのメンテナンス状況

| ファイル/ディレクトリ | 最終更新 | 主要メンテナー | 状態 |
|----------------------|---------|---------------|------|
| CLAUDE.md | 2025-12-10 | user1 | 約3.5ヶ月未更新 |
| settings.json | 2026-01-14 | user1 | 約2ヶ月未更新 |
| .claude/context/ | 2025-12-09 | user1 | 約3.5ヶ月未更新 |
| .claude/agents/ | 2025-12-16 | user1, user2, user3 | 約3ヶ月未更新 |

### 2. 貢献パターンと傾向

**時系列の傾向**:
- **2025年10月**: user2による初期構築フェーズ(Claude Codeエージェント設定、PR作成エージェント)
- **2025年11月**: user1がCI/CD軽量化から参入
- **2025年12月**: **最も活発な月(23コミット)** — user1による`.claude/context/`への大規模分割、Copilot設定統合、@記法導入。user2によるセキュリティ関連整備も同時進行
- **2026年1月**: 2件のみ。整備完了後の安定期に入った可能性
- **2026年2月**: コミットなし

**役割分担**:
- **user1**: アーキテクチャ設計・構造化のリード(context分割、設定統合)
- **user2**: 初期設計とCI/CDセキュリティ強化
- **user3 / user4**: セットアップガイドやドキュメント補完のスポット貢献

**推奨アクション**:
- 主要設定ファイル(CLAUDE.md、copilot-instructions.md)が3ヶ月以上未更新のため、プロジェクトの現状と乖離がないか定期的なレビューサイクルの確立が望ましい
- 貢献者がuser1に集中しているため、バス係数(Bus Factor)の観点からナレッジ共有の促進も検討すべき

AIと人のPR作成量比率分析(GitHub Actions経由)

AIに任せられる可能性がある業務領域を特定し、最適な分担を提案することができます。メンバー別AI活用率やPR作成量の偏在度を確認できるので、新機能開発と運用開発の分担を考え直すきっかけ作りにつながります。

GitHub Actionsでの分析は、リポジトリのActionsタブから手動実行できます。対象リポジトリ名と分析期間を入力して「Run workflow」を押すだけです。

GitHub Actionsのワークフロー手動実行画面

分析が完了すると、結果のサマリーがSlackに自動通知されます。チームメンバー全員がすぐに結果を確認でき、定期実行と組み合わせることで月次の振り返りにも活用できます。

Slackへの分析結果通知

結果はGitHub Issueとしても自動作成されているので、Slack通知内のリンクから遷移できます。構造化されたレポートが作成され、チーム内での共有や議論をする親Issueとしても活用できます。

分析結果が投稿されたGitHub Issue

詳しいセットアップ方法はGitHub Actionsでの分析セットアップガイドをご覧ください。

Findy AI+の分析ワークフローについて

ここまで紹介してきた分析は、Findy AI+が新たに提供を開始した分析ワークフローを使って実行したものです。ここからは、ワークフローの全体像と活用方法を紹介します。

分析ワークフローでできること

今回のリリースでは、次の7種類の分析ワークフローを提供しています。

ワークフロー できること
Agent Environment Analysis AI向け指示ファイル・フォルダをスコア化し、自走環境の整備度合いを診断
PR Reviews Analysis コード変更者・開発環境の伸びしろを特定し、改善施策を提案
PR Productivity Analysis AI活用によるアウトプット量の変化や機能開発への影響を分析
AI-Human Collaboration Analysis AIに任せられる業務領域を特定し、最適な分担を提案
Multi AI Cost Comparison 複数AIツールのROIを人件費対比で算出
PR Type Summary PRの作業種別ごとにサマリーを生成
Findy AI+ PR Review PRオープン時にAIレビューを自動実行し、結果をコメント投稿

これらはMCPサーバー・GitHub Actionsの両方からご利用いただけます。

GitHub Actionsで分析を自動化

GitHub Actionsを使えば、上記の分析をリポジトリから定期実行できます。デフォルトでは毎月1日にスケジュール実行される設定になっており、頻度はカスタマイズ可能です。GitHub Web UIやCLIからの手動実行にも対応しています。

分析結果はSlackチャンネルに自動通知されるため、チーム全体で定期的に確認し改善サイクルを回す運用が実現できます。チーム単位での分析にも対応しているので、組織全体だけでなくチームごとの傾向把握も可能です。

気になるポイントをさっと確認したいときはMCPサーバー、じっくり深堀りしたいときはGitHub Actionsという使い分けがおすすめです。

おわりに

今回は、Findy AI+の分析ワークフローを使って、ある開発チームのAI活用状況を約1年にわたって追いかけてみました。

AI環境整備コミット履歴分析では、誰がAI設定を整備しているのか、どのファイルがどの時期に集中的に更新されたのかが見えてきました。AIと人のPR作成量比率分析では、AI活用率の推移やメンバー間の活用度の差が可視化されました。こうした数字があることで、「なんとなくAIを使っている」という感覚ではなく、具体的にどこに課題があり、何を改善すべきかを議論できるようになります。

AIツールを導入したものの効果が見えづらいと感じている方は、まず自分たちのチームの現状を可視化するところから始めてみてください。データがあれば、次の一手が見えてきます。

ファインディでは一緒に会社を盛り上げてくれるメンバーを募集中です。興味を持っていただいた方はこちらのページからご応募お願いします。 herp.careers