AIが人を呼び出す意思決定エスカレーション
言えない本音を経営層へ届け、推進するHelm。会議・チャットから意思決定の詰まりを検知し、「決めるべき人」にアラートで呼び出し、合意形成を進めるAIエージェントです。
「決める人が不明」「決める期限がない」「反対意見が出ない」の詰まりを会議・チャットから検知。
既存の「人がAIを呼ぶ」から「AIが人を呼ぶ」へ。決めるべき人にアラートで呼び出し。
なぜ問題か(根拠)と誰に何を決めてもらうかをまとめ、その人に承認を求めるまで一気通貫。
撤退判断の早期化、リスク報告の漏れ防止、炎上未然防止など
背景・課題
AIが浸透していく中で、個別のタスクや業務は効率化されていく一方で、意思決定の時間や経営判断の遅延が推進の最も大きなボトルネックとして挙げられています。
8.6時間 / 15時間
週平均会議時間 / 経営層レビュー負荷
部長級管理職の週平均会議時間8.6時間。経営層のレビュー負荷は週15時間。出典:パーソル総合研究所「無駄な社内会議による企業損失額調査」(2018年9月)。
70〜85日
平均意思決定リードタイム
新規サービス導入の意思決定期間は平均4〜5ヶ月(120〜150日)。出典:IDEATECH「大企業・エンプラの意思決定プロセス実態調査」(2025年6月)。
6割〜81%
新規事業の高い失敗率
投資回収まで至った企業は約2割。81%の事業が成長段階で失敗。出典:PwC、NTTデータ、スーパーソフトウェア等の調査。
会社の中で「誰が何を判断するか」が問われる場面において、意思決定が遅延する3つの課題
責任曖昧
重要な判断の責任者が曖昧なまま
バイアス
判断の遅れや責任の曖昧さの兆候を検知する仕組みがない
人主導の限界
誰が何を判断するか、判断の質を観測・改善する仕組みがない
どう解決するか
「人がAIを呼び出す」から「AIが人を呼び出す」へ。Helmは3つの機能で組織の意思決定を改善します。
数値条件(ルールベース)とAIによる複数視点評価(LLM)を組み合わせて、見落としのない統合判断を実現
判断の遅れや責任の曖昧さを検知すると、役員/部長/スタッフを特定し、判断・承認を依頼
観測→評価→介入→実行→再観測のループを自動で回す
使い方
①データ取り込み → ②検知・評価 → ③アラート発行・承認 → ④AI実行 の順で進みます。
① データ取り込み
Meet / Chat / 会議資料
議事録・チャットログを取得し構造化
② 検知・評価
ルール+LLM
意思決定リスクを検知、統合スコアで評価
③ アラート・承認
経営層へ呼び出し
責任モデルに基づき承認を依頼
④ AI自律実行
タスク分解・資料作成
承認後、複数エージェントで自律実行
差別化
既存ツール(会議要約AI、プロジェクト管理、組織サーベイ等)はタスク・成果物の最適化に焦点。Helmが唯一やることは別にあります。
会議・チャットから「意思決定の詰まり」を検知し、AIが人を呼び出して「次に誰が何を決めるか」まで落とし込む一気通貫。既存ツールはカバーしていません。
「AIを賢くするのではない。人とAIでできた"組織"を賢くする。」
"Helm is where humans steer and AI rows." 人は舵を取る。AIは船でありパドルでありレーダーである。
リスクとガバナンス
会議・チャットを継続的にモニタリングして介入する以上、技術より先に「正当性」「監査可能性」「濫用防止」を設計しています。
取得範囲
対象は「特定プロジェクトの定例会議」「特定ワークスペースのチャット」に限定し、全社横断の"全監視"は行いません。
同意・告知
対象会議/スペースには「Helmがログを分析しています」を明示し、ポリシーに同意したメンバーのみ参加します。
保存・権限
ログは一定期間で自動削除し、マスキング(個人名・機微情報)を施した上で、アクセス権限を経営企画・ガバナンス担当などに限定します。
誤検知への対応
「このアラートは不要だった」をワンクリックでフィードバックでき、その結果をモデル・ルールの改善に反映します。
導入・事例
顧客ロゴ・導入事例(匿名可)を掲載予定です。
PoC・検証中企業の枠も用意しています。お問い合わせください。
FAQ
導入検討や技術的な問い合わせを想定したQ&Aです。実装済み・設計中・検討中を区別して記載しています。
会議・チャットから「意思決定の詰まり」(決める人が不明・決める期限がない・反対意見が出ない)を検知し、決めるべき人にアラートで呼び出して合意形成を進めるAIエージェントです。既存の「タスクを代行する」エージェントに対し、Helmは「AIが人を呼ぶ」ことで意思決定そのものを前に進めます。
Helmは「生産性監視」ではなく、プロジェクト内の意思決定リスクを早期に見つける安全管理のためのツールです。(1)用途は意思決定プロセス上の重大リスク検知に限定し、内容で人を評価・査定しません。(2)会議・チャットの原文は原則保存せず、保存するのは必要最小限のシグナルだけ。(3)閲覧はガバナンス担当に限定し、人事評価・査定には使いません。1on1・私的DM・メンタル相談・労組窓口・内部通報窓口は対象外です。
一般的なチャットボットは「人がAIを呼び出す」形です。Helmは逆に「AIが人を呼び出す」形です。会議やチャットを横断して、意思決定の遅れや責任の曖昧さといった構造的な問題を検知し、適切な担当者(経営層など)に判断を依頼します。タスクの自動化ではなく、意思決定のプロセスそのものに働きかける点が特徴です。
対象とする会議・チャットの範囲を決め、参加メンバーから同意を取得。組織図や承認フローはヒアリングをもとに定義ファイル(JSON)で設定します。Google Meet / Chat / 会議資料の連携が必要です。
導入時は対象会議・チャットの範囲を決め、参加メンバーから同意を取得。組織図や承認フローはヒアリングをもとに定義ファイルで設定します。1ヶ月目はアラート精度を確認し誤検知を蓄積、閾値調整。3ヶ月目で蓄積データを再評価し運用を安定化します。
はい。組織図・責任分担・承認フローは定義ファイル(JSON)で設定します。サービス導入時に組織情報をヒアリングし、会社ごとに個別の定義を持つ形を想定しています。将来的には管理画面での編集も検討中です。
はい。「誰が・いつ・どう判断するか」が曖昧になる課題は業界を問わず共通です。組織図・承認フローは定義ファイルの差し替えで対応可能。検知するリスクの種類やルールは、業界に合わせて調整できます。
アラートには必ず根拠(どの発言・いつ)を表示します。確信度が低い場合は「質問として投げる」形にし、段階的に(通知→レビュー→承認依頼→議題化)エスカレーション。最終判断は常に人が行います。説明文と証拠の引用で納得感を担保する設計です。
検知記録やエスカレーション履歴は監査ログとして保存。誤検知はワンクリックで登録でき、「どのパターンで誤検知が多いか」を分析。閾値やルールの見直し、組織の意思決定プロセスの改善に活用できます。
検知は相関ベースです。改善効果は、検知から経営層の承認までの日数や、経営会議への議題化の有無・日数で測定して検証する設計です。AIはあくまで提案に留め、最終判断は人が行うため、因果の誤認リスクを抑えています。
個人名は役職に置換し、金額や個人を特定できる情報はマスキングします。データ保持は3層:原文(議事録・チャット本文)はデフォルト7日で破棄、シグナル(検知結果・スコア・マスク済み要約)は90〜180日、監査証跡は365日。アクセスはガバナンス担当に限定し、人事評価担当とは分離。原文へのアクセスはケース化+二段階承認+理由入力+監査でのみ可能です。
レート制限・コスト上限は実装済み。レート制限は1分あたりNリクエスト、コスト上限は日次トークン数で制御。超えた場合は429エラーまたはモック応答。AIへの入力は構造化データに限定し、ユーザーの自由入力は経由しない設計のため、プロンプトインジェクションは設計上抑止。監査ログにはハッシュチェーンを付与し、改ざん検証が可能です。
現在は config/definitions/ 配下のJSONファイルに組織図・責任分担・承認フローを記載し、直接編集する形です。Firestoreへの永続化後は管理画面での編集を想定していますが、管理画面は未実装です。変更履歴はバージョン管理と監査ログで追跡する設計です。
GET /api/metrics/usage で直近の分析の平均レイテンシ・トークン数・分析件数を取得可能です。会議1件あたりの目安は運用データで確認できます。分析は非同期・キュー方式を想定しており、同時実行やジョブ管理はCloud RunのスケールとPub/Subで対応する設計です。
より詳細な技術FAQ(ADK採用理由、API拡張性、モデル劣化対策など)はZENN記事をご参照ください。
"Helm is where humans steer and AI rows." 人は舵を取る。AIは船でありパドルでありレーダーである。