AIが人を呼び出す意思決定エスカレーション

「決裁待ち」を、過去に。

言えない本音を経営層へ届け、推進するHelm。会議・チャットから意思決定の詰まりを検知し、「決めるべき人」にアラートで呼び出し、合意形成を進めるAIエージェントです。

意思決定リスクの早期検知

「決める人が不明」「決める期限がない」「反対意見が出ない」の詰まりを会議・チャットから検知。

AIが人を呼び出す

既存の「人がAIを呼ぶ」から「AIが人を呼ぶ」へ。決めるべき人にアラートで呼び出し。

次に誰が何を決めるか

なぜ問題か(根拠)と誰に何を決めてもらうかをまとめ、その人に承認を求めるまで一気通貫。

体験価値

撤退判断の早期化、リスク報告の漏れ防止、炎上未然防止など

背景・課題

管理職の週平均会議時間は8.6時間 レビュー負荷は15時間/週

AIが浸透していく中で、個別のタスクや業務は効率化されていく一方で、意思決定の時間や経営判断の遅延が推進の最も大きなボトルネックとして挙げられています。

※1

8.6時間 / 15時間

週平均会議時間 / 経営層レビュー負荷

部長級管理職の週平均会議時間8.6時間。経営層のレビュー負荷は週15時間。出典:パーソル総合研究所「無駄な社内会議による企業損失額調査」(2018年9月)。

※2

70〜85日

平均意思決定リードタイム

新規サービス導入の意思決定期間は平均4〜5ヶ月(120〜150日)。出典:IDEATECH「大企業・エンプラの意思決定プロセス実態調査」(2025年6月)。

※3

6割〜81%

新規事業の高い失敗率

投資回収まで至った企業は約2割。81%の事業が成長段階で失敗。出典:PwC、NTTデータ、スーパーソフトウェア等の調査。

誰が何をいつ判断するかの組織課題(3つの壁)

会社の中で「誰が何を判断するか」が問われる場面において、意思決定が遅延する3つの課題

責任曖昧

重要な判断の責任者が曖昧なまま

バイアス

判断の遅れや責任の曖昧さの兆候を検知する仕組みがない

人主導の限界

誰が何を判断するか、判断の質を観測・改善する仕組みがない

どう解決するか

会議・チャットから「誰が・いつ・どう判断すべきか」の問題を検知し、適切な人に判断を促す

「人がAIを呼び出す」から「AIが人を呼び出す」へ。Helmは3つの機能で組織の意思決定を改善します。

多角的な評価・判断システム

数値条件(ルールベース)とAIによる複数視点評価(LLM)を組み合わせて、見落としのない統合判断を実現

  • ・経営者/経営企画/現場/ガバナンスの4視点から評価
  • ・0.6×ルール + 0.4×LLM で統合スコア

AIが人を呼び出し、判断を依頼

判断の遅れや責任の曖昧さを検知すると、役員/部長/スタッフを特定し、判断・承認を依頼

  • ・AIが会議やチャットの状況を監視し、必要なときに人に判断を求める
  • ・責任モデルに基づいて「なぜこの人に判断を求めるべきか」を説明可能な形で生成

学習・改善PDCAの自動化

観測→評価→介入→実行→再観測のループを自動で回す

  • ・どんなときに判断が遅れやすいか、責任が曖昧になりやすいかを学習
  • ・判断の仕組みそのものが改善されていく

使い方

Helmの動き方

①データ取り込み → ②検知・評価 → ③アラート発行・承認 → ④AI実行 の順で進みます。

① データ取り込み

Meet / Chat / 会議資料

議事録・チャットログを取得し構造化

② 検知・評価

ルール+LLM

意思決定リスクを検知、統合スコアで評価

③ アラート・承認

経営層へ呼び出し

責任モデルに基づき承認を依頼

④ AI自律実行

タスク分解・資料作成

承認後、複数エージェントで自律実行

差別化

なぜHelmなのか

既存ツール(会議要約AI、プロジェクト管理、組織サーベイ等)はタスク・成果物の最適化に焦点。Helmが唯一やることは別にあります。

Helmが唯一やること

会議・チャットから「意思決定の詰まり」を検知し、AIが人を呼び出して「次に誰が何を決めるか」まで落とし込む一気通貫。既存ツールはカバーしていません。

「AIを賢くするのではない。人とAIでできた"組織"を賢くする。」

"Helm is where humans steer and AI rows." 人は舵を取る。AIは船でありパドルでありレーダーである。

ユースケース

インタラクティブPDCAデモ

Before/Afterと成果を体験できるシナリオです。

ダッシュボード

意思決定フロー

アラート

Case 1

経営会議後の構造変化

「判断集中」を検知し、責任境界の明文化を提案

デモを開始
Case 2

重大ミスのエスカレーション

報告遅延を検出し、即座に経営層へエスカレーション

デモを開始
Case 3

外部トレンドのチャンス検知

市場変化を検知し、迅速なピボットを提案

デモを開始

リスクとガバナンス

正当性・監査可能性・濫用防止を設計

会議・チャットを継続的にモニタリングして介入する以上、技術より先に「正当性」「監査可能性」「濫用防止」を設計しています。

取得範囲

対象は「特定プロジェクトの定例会議」「特定ワークスペースのチャット」に限定し、全社横断の"全監視"は行いません。

同意・告知

対象会議/スペースには「Helmがログを分析しています」を明示し、ポリシーに同意したメンバーのみ参加します。

保存・権限

ログは一定期間で自動削除し、マスキング(個人名・機微情報)を施した上で、アクセス権限を経営企画・ガバナンス担当などに限定します。

誤検知への対応

「このアラートは不要だった」をワンクリックでフィードバックでき、その結果をモデル・ルールの改善に反映します。

導入・事例

導入企業・事例

顧客ロゴ・導入事例(匿名可)を掲載予定です。

PoC・検証中企業の枠も用意しています。お問い合わせください。

FAQ

よくある質問

導入検討や技術的な問い合わせを想定したQ&Aです。実装済み・設計中・検討中を区別して記載しています。

1製品・サービス概要

Helmは何をする製品ですか?

会議・チャットから「意思決定の詰まり」(決める人が不明・決める期限がない・反対意見が出ない)を検知し、決めるべき人にアラートで呼び出して合意形成を進めるAIエージェントです。既存の「タスクを代行する」エージェントに対し、Helmは「AIが人を呼ぶ」ことで意思決定そのものを前に進めます。

「監視ツール」ではないと言い切れる理由は?

Helmは「生産性監視」ではなく、プロジェクト内の意思決定リスクを早期に見つける安全管理のためのツールです。(1)用途は意思決定プロセス上の重大リスク検知に限定し、内容で人を評価・査定しません。(2)会議・チャットの原文は原則保存せず、保存するのは必要最小限のシグナルだけ。(3)閲覧はガバナンス担当に限定し、人事評価・査定には使いません。1on1・私的DM・メンタル相談・労組窓口・内部通報窓口は対象外です。

社内のチャットボットやAIアシスタントと何が違いますか?

一般的なチャットボットは「人がAIを呼び出す」形です。Helmは逆に「AIが人を呼び出す」形です。会議やチャットを横断して、意思決定の遅れや責任の曖昧さといった構造的な問題を検知し、適切な担当者(経営層など)に判断を依頼します。タスクの自動化ではなく、意思決定のプロセスそのものに働きかける点が特徴です。

2導入・運用

導入にはどのような準備が必要ですか?

対象とする会議・チャットの範囲を決め、参加メンバーから同意を取得。組織図や承認フローはヒアリングをもとに定義ファイル(JSON)で設定します。Google Meet / Chat / 会議資料の連携が必要です。

導入から運用まで、どのような流れを想定していますか?

導入時は対象会議・チャットの範囲を決め、参加メンバーから同意を取得。組織図や承認フローはヒアリングをもとに定義ファイルで設定します。1ヶ月目はアラート精度を確認し誤検知を蓄積、閾値調整。3ヶ月目で蓄積データを再評価し運用を安定化します。

会社ごとに組織や承認フローが違いますが、対応できますか?

はい。組織図・責任分担・承認フローは定義ファイル(JSON)で設定します。サービス導入時に組織情報をヒアリングし、会社ごとに個別の定義を持つ形を想定しています。将来的には管理画面での編集も検討中です。

他社や他業界にも展開できますか?

はい。「誰が・いつ・どう判断するか」が曖昧になる課題は業界を問わず共通です。組織図・承認フローは定義ファイルの差し替えで対応可能。検知するリスクの種類やルールは、業界に合わせて調整できます。

3AI・検知の仕組み

AIの判断を現場が納得できる仕組みはありますか?

アラートには必ず根拠(どの発言・いつ)を表示します。確信度が低い場合は「質問として投げる」形にし、段階的に(通知→レビュー→承認依頼→議題化)エスカレーション。最終判断は常に人が行います。説明文と証拠の引用で納得感を担保する設計です。

検知結果を組織の学習・改善にどう活かしますか?

検知記録やエスカレーション履歴は監査ログとして保存。誤検知はワンクリックで登録でき、「どのパターンで誤検知が多いか」を分析。閾値やルールの見直し、組織の意思決定プロセスの改善に活用できます。

AIの検知は「相関」であって「因果」ではないのでは?本当に改善に繋がりますか?

検知は相関ベースです。改善効果は、検知から経営層の承認までの日数や、経営会議への議題化の有無・日数で測定して検証する設計です。AIはあくまで提案に留め、最終判断は人が行うため、因果の誤認リスクを抑えています。

4セキュリティ・データ保護

会議・チャットのログはどのように保護・管理していますか?

個人名は役職に置換し、金額や個人を特定できる情報はマスキングします。データ保持は3層:原文(議事録・チャット本文)はデフォルト7日で破棄、シグナル(検知結果・スコア・マスク済み要約)は90〜180日、監査証跡は365日。アクセスはガバナンス担当に限定し、人事評価担当とは分離。原文へのアクセスはケース化+二段階承認+理由入力+監査でのみ可能です。

レート制限やコスト暴騰、プロンプトインジェクションへの対策は?

レート制限・コスト上限は実装済み。レート制限は1分あたりNリクエスト、コスト上限は日次トークン数で制御。超えた場合は429エラーまたはモック応答。AIへの入力は構造化データに限定し、ユーザーの自由入力は経由しない設計のため、プロンプトインジェクションは設計上抑止。監査ログにはハッシュチェーンを付与し、改ざん検証が可能です。

5技術的な詳細

組織・承認フローなどの定義は、技術的にはどう管理していますか?

現在は config/definitions/ 配下のJSONファイルに組織図・責任分担・承認フローを記載し、直接編集する形です。Firestoreへの永続化後は管理画面での編集を想定していますが、管理画面は未実装です。変更履歴はバージョン管理と監査ログで追跡する設計です。

会議1件あたりの処理時間やコスト、スケールは?

GET /api/metrics/usage で直近の分析の平均レイテンシ・トークン数・分析件数を取得可能です。会議1件あたりの目安は運用データで確認できます。分析は非同期・キュー方式を想定しており、同時実行やジョブ管理はCloud RunのスケールとPub/Subで対応する設計です。

より詳細な技術FAQ(ADK採用理由、API拡張性、モデル劣化対策など)はZENN記事をご参照ください。

お問い合わせ

資料請求・ご相談

資料のご送付、デモのご依頼、導入のご相談はこちらから。

お問い合わせフォームを設置予定です。

いったんデモを見る

AIを賢くするのではない。
人とAIでできた"組織"を賢くする。

"Helm is where humans steer and AI rows." 人は舵を取る。AIは船でありパドルでありレーダーである。