Post
JA EN

「AI が文脈を察してくれる」という誤信 ─ encode されていないものを AI は encode できない

「AI が文脈を察してくれる」という誤信 ─ encode されていないものを AI は encode できない
  • 想定読者: 「AI があれば文書化は不要では?」と考える経営層・推進担当、組織のドキュメンテーション予算が AI 導入で削られているリード
  • 前提知識:組織のコンテキスト供給能力を整える実装ガイド」12パターン C の概要
  • 所要時間: 通読 約14分/要点把握 約5分

概要

「AI が察してくれるから書かなくていい」「AI に聞けばわかる」「LLM は学習済みなので社内知識は要らない」——AI 時代特有の誤信が経営から現場まで蔓延し、コンテキスト整備の予算と時間が削られる組織が増えている。

しかし AI は encode されていないものを encode できない。Anthropic の Context Engineering の核心1 は「最適なトークンセットをキュレートし維持する」であり、キュレートする対象がなければ機能しない。本記事は、姉妹記事「組織のコンテキスト供給能力を整える実装ガイド」12パターン C を独立記事として深掘りする。AI が文書化を加速する正しい使い方と、それを文書化を減らす言い訳に使う倒錯を区別する。

症状:「AI で十分」言説の蔓延

典型的な症状:

  • 「ドキュメント書く時間を AI 開発に回したほうがいい」
  • 「LLM は学習済みなので社内知識を入力しなくていい」
  • 「RAG があれば書かなくていい」(RAG にも encode が必要)
  • 「議事録も AI が書いてくれる」(書かれていない判断は補完できない)
  • 「ChatGPT で代替できる」(社内固有の文脈は学習データにない)
  • 「AI が普及したらナレッジマネジメントは廃れる」

これらは AI への過剰期待だが、表面的には合理的に見える。だから組織内で広まりやすく、ドキュメンテーション予算削減の根拠として使われる。

メカニズム:AI は encode されていないものを encode できない

Context Engineering の核心

Anthropic は2025年の “Effective context engineering for AI agents”1 で Context Engineering を 「LLM 推論時に最適なトークンセット(情報)をキュレートし維持する戦略群」 と定義した。Birgitta Böckeler の Martin Fowler サイトの記事2 も同じ立場:「コンテキストは AI に新しい知識を 入力 するもの、AI が既存の学習から 生成 するものではない」。

つまり AI が「察する」のは:

  • LLM の事前学習に含まれている一般知識
  • セッション内で明示的に提供されたコンテキスト

「察せない」のは:

  • 組織固有の戦略・顧客・収益モデル
  • 過去の意思決定の理由
  • 暗黙の業務プロセス
  • 個別案件の文脈
  • セッションをまたいだ継続知識

これらを AI に渡すには encode(言語化・文書化)が必要 だ。「書かなくても AI が分かる」は構造的に成立しない。

MIT NANDA の警告

MIT NANDA の2025年調査3 は、企業の GenAI 投資300〜400億ドルに対し95%が測定可能リターンを得ていないことを報告した。障壁を「インフラ・規制・人材ではなく 学習(learning)」と総括している。「フィードバックを保持し、コンテキストに適応し、改善する仕組み」の不在——これは 組織側の encode 能力の問題 だ。

METR の RCT

METR が2025年7月に公開したランダム化比較試験4:経験豊富な16人のオープンソース開発者・246件の実イシューで、AI 使用許可下では完了時間が19%増加した。事前予想は「24%短縮」、事後の自己評価は「20%短縮」で、主観と実測が大きく乖離している。

この結果は AI の能力問題ではなく、与えるコンテキストが足りないため、もっともらしいが文脈外れの出力が返ってくる 現象だ。組織が AI に渡せるコンテキストの質が低いと、AI を使うほど遅くなる。

対処の方向

1. 経営原則:AI 入力は既存ドキュメントの派生

「AI への入力は 既存ドキュメントの派生 であって、AI が新規生成するものではない」を経営原則として明記する:

  • CLAUDE.md / AGENTS.md は handbook やオンボーディング資料の 派生 であり、新規作成ではない
  • AI に渡す文脈は人間にも有用な文脈で、別管理しない
  • 「AI のために書く」と「人間のために書く」を分けない

これにより、文書化予算と AI 投資が 同じ方向 に作用する。逆向きに作用させると、両方の ROI が落ちる。

2. AI 出力レビュー時の修正量を集計

AI 出力に対する人間レビュー時、コンテキスト不足が原因の修正 を集計する:

  • 「事実誤認」(社内固有の情報を AI が知らない)
  • 「文脈外れ」(過去の意思決定を AI が知らない)
  • 「優先順位ずれ」(戦略を AI が知らない)

これらの数値が多いほど、組織のコンテキスト供給能力が AI 活用の足を引っ張っている証拠だ。「AI で十分」言説に対する強力な反証になる。

3. AI が文書化を加速する正しい使い方

AI を文書化の 代替 ではなく 加速 に使う:

  • 要約:長い議事録から要点を抽出(人間が確認)
  • テンプレ生成:ADR / Pitch / キックオフメモの初稿
  • リライト:書いた草稿を別の読者向けに調整
  • 読み直し:既存ドキュメントから検索・要約
  • 整合性チェック:複数ドキュメント間の矛盾検出

これらはどれも 既存の encode を前提 にしている。「書かない」を可能にするものではない。

4. 「AI は組織のコンテキスト供給能力の鏡」を内部教材化

姉妹記事「組織のコンテキスト供給能力を先に整える」が論じた 「AI は組織のコンテキスト供給能力の鏡」 を内部教材化する:

  • 新入社員研修で扱う
  • AI 導入研修で必ず触れる
  • 経営会議の AI 戦略議論で繰り返し参照する

これは哲学的命題ではなく 実装上の制約 だ。組織が言語化できる範囲でしか AI は機能しない。

アンチパターン

パターン何が起きるか対処
「AI 開発に予算を集中、ドキュメントは後回し」encode 不足で AI ROI が伸びないAI 投資と文書化投資をセットで議論
「ChatGPT があれば社内 Wiki 不要」社内固有の文脈は学習データにない社内 Wiki が AI 入力の一次ソース
「議事録は AI が書く」書かれていない判断は補完できない重要な判断は議事録に明示記録
「LLM が進化すれば不要になる」進化しても encode 必要は減らないRAG / fine-tuning にも encode が必要
AI 出力を無批判に採用コンテキスト不足の出力が組織決定になるAI 出力レビューを必須化

まとめ

  • AI は encode されていないものを encode できない
  • 「AI が察してくれる」は構造的に成立しない(一般知識は察せるが、組織固有は察せない)
  • MIT NANDA の95%リターンなし、METR の +19% 完了時間は組織側の encode 能力の問題
  • 経営原則:AI 入力は既存ドキュメントの派生
  • AI 出力レビュー時のコンテキスト不足修正を集計し、誤信の証拠にする
  • AI は文書化の代替ではなく 加速 に使う
  • 「AI は組織のコンテキスト供給能力の鏡」を内部教材化

関連記事

参考資料

  1. Effective context engineering for AI agents - Anthropic Engineering (2025-09-29). 【信頼性: 高】 ↩︎ ↩︎2

  2. Context Engineering for Coding Agents - Birgitta Böckeler, martinfowler.com (2026-02-05). 【信頼性: 中〜高】 ↩︎

  3. The GenAI Divide: State of AI in Business 2025 - MIT Project NANDA (2025-08). 【信頼性: 高】 ↩︎

  4. Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity - METR (2025-07-10). arXiv:2507.09089. 【信頼性: 高】 ↩︎

This post is licensed under CC BY 4.0 by the author.