「AI が文脈を察してくれる」という誤信 ─ encode されていないものを AI は encode できない
この記事はAIによって生成されています。内容の正確性は保証されず、記事の利用による損害について一切の責任を負いません。この記事を読み進めることで、利用規約に同意したものとみなされます。
- 想定読者: 「AI があれば文書化は不要では?」と考える経営層・推進担当、組織のドキュメンテーション予算が AI 導入で削られているリード
- 前提知識: 「組織のコンテキスト供給能力を整える実装ガイド」12パターン C の概要
- 所要時間: 通読 約14分/要点把握 約5分
概要
「AI が察してくれるから書かなくていい」「AI に聞けばわかる」「LLM は学習済みなので社内知識は要らない」——AI 時代特有の誤信が経営から現場まで蔓延し、コンテキスト整備の予算と時間が削られる組織が増えている。
しかし AI は encode されていないものを encode できない。Anthropic の Context Engineering の核心1 は「最適なトークンセットをキュレートし維持する」であり、キュレートする対象がなければ機能しない。本記事は、姉妹記事「組織のコンテキスト供給能力を整える実装ガイド」12パターン C を独立記事として深掘りする。AI が文書化を加速する正しい使い方と、それを文書化を減らす言い訳に使う倒錯を区別する。
症状:「AI で十分」言説の蔓延
典型的な症状:
- 「ドキュメント書く時間を AI 開発に回したほうがいい」
- 「LLM は学習済みなので社内知識を入力しなくていい」
- 「RAG があれば書かなくていい」(RAG にも encode が必要)
- 「議事録も AI が書いてくれる」(書かれていない判断は補完できない)
- 「ChatGPT で代替できる」(社内固有の文脈は学習データにない)
- 「AI が普及したらナレッジマネジメントは廃れる」
これらは AI への過剰期待だが、表面的には合理的に見える。だから組織内で広まりやすく、ドキュメンテーション予算削減の根拠として使われる。
メカニズム:AI は encode されていないものを encode できない
Context Engineering の核心
Anthropic は2025年の “Effective context engineering for AI agents”1 で Context Engineering を 「LLM 推論時に最適なトークンセット(情報)をキュレートし維持する戦略群」 と定義した。Birgitta Böckeler の Martin Fowler サイトの記事2 も同じ立場:「コンテキストは AI に新しい知識を 入力 するもの、AI が既存の学習から 生成 するものではない」。
つまり AI が「察する」のは:
- LLM の事前学習に含まれている一般知識
- セッション内で明示的に提供されたコンテキスト
「察せない」のは:
- 組織固有の戦略・顧客・収益モデル
- 過去の意思決定の理由
- 暗黙の業務プロセス
- 個別案件の文脈
- セッションをまたいだ継続知識
これらを AI に渡すには encode(言語化・文書化)が必要 だ。「書かなくても AI が分かる」は構造的に成立しない。
MIT NANDA の警告
MIT NANDA の2025年調査3 は、企業の GenAI 投資300〜400億ドルに対し95%が測定可能リターンを得ていないことを報告した。障壁を「インフラ・規制・人材ではなく 学習(learning)」と総括している。「フィードバックを保持し、コンテキストに適応し、改善する仕組み」の不在——これは 組織側の encode 能力の問題 だ。
METR の RCT
METR が2025年7月に公開したランダム化比較試験4:経験豊富な16人のオープンソース開発者・246件の実イシューで、AI 使用許可下では完了時間が19%増加した。事前予想は「24%短縮」、事後の自己評価は「20%短縮」で、主観と実測が大きく乖離している。
この結果は AI の能力問題ではなく、与えるコンテキストが足りないため、もっともらしいが文脈外れの出力が返ってくる 現象だ。組織が AI に渡せるコンテキストの質が低いと、AI を使うほど遅くなる。
対処の方向
1. 経営原則:AI 入力は既存ドキュメントの派生
「AI への入力は 既存ドキュメントの派生 であって、AI が新規生成するものではない」を経営原則として明記する:
- CLAUDE.md / AGENTS.md は handbook やオンボーディング資料の 派生 であり、新規作成ではない
- AI に渡す文脈は人間にも有用な文脈で、別管理しない
- 「AI のために書く」と「人間のために書く」を分けない
これにより、文書化予算と AI 投資が 同じ方向 に作用する。逆向きに作用させると、両方の ROI が落ちる。
2. AI 出力レビュー時の修正量を集計
AI 出力に対する人間レビュー時、コンテキスト不足が原因の修正 を集計する:
- 「事実誤認」(社内固有の情報を AI が知らない)
- 「文脈外れ」(過去の意思決定を AI が知らない)
- 「優先順位ずれ」(戦略を AI が知らない)
これらの数値が多いほど、組織のコンテキスト供給能力が AI 活用の足を引っ張っている証拠だ。「AI で十分」言説に対する強力な反証になる。
3. AI が文書化を加速する正しい使い方
AI を文書化の 代替 ではなく 加速 に使う:
- 要約:長い議事録から要点を抽出(人間が確認)
- テンプレ生成:ADR / Pitch / キックオフメモの初稿
- リライト:書いた草稿を別の読者向けに調整
- 読み直し:既存ドキュメントから検索・要約
- 整合性チェック:複数ドキュメント間の矛盾検出
これらはどれも 既存の encode を前提 にしている。「書かない」を可能にするものではない。
4. 「AI は組織のコンテキスト供給能力の鏡」を内部教材化
姉妹記事「組織のコンテキスト供給能力を先に整える」が論じた 「AI は組織のコンテキスト供給能力の鏡」 を内部教材化する:
- 新入社員研修で扱う
- AI 導入研修で必ず触れる
- 経営会議の AI 戦略議論で繰り返し参照する
これは哲学的命題ではなく 実装上の制約 だ。組織が言語化できる範囲でしか AI は機能しない。
アンチパターン
| パターン | 何が起きるか | 対処 |
|---|---|---|
| 「AI 開発に予算を集中、ドキュメントは後回し」 | encode 不足で AI ROI が伸びない | AI 投資と文書化投資をセットで議論 |
| 「ChatGPT があれば社内 Wiki 不要」 | 社内固有の文脈は学習データにない | 社内 Wiki が AI 入力の一次ソース |
| 「議事録は AI が書く」 | 書かれていない判断は補完できない | 重要な判断は議事録に明示記録 |
| 「LLM が進化すれば不要になる」 | 進化しても encode 必要は減らない | RAG / fine-tuning にも encode が必要 |
| AI 出力を無批判に採用 | コンテキスト不足の出力が組織決定になる | AI 出力レビューを必須化 |
まとめ
- AI は encode されていないものを encode できない
- 「AI が察してくれる」は構造的に成立しない(一般知識は察せるが、組織固有は察せない)
- MIT NANDA の95%リターンなし、METR の +19% 完了時間は組織側の encode 能力の問題
- 経営原則:AI 入力は既存ドキュメントの派生
- AI 出力レビュー時のコンテキスト不足修正を集計し、誤信の証拠にする
- AI は文書化の代替ではなく 加速 に使う
- 「AI は組織のコンテキスト供給能力の鏡」を内部教材化
関連記事
- 組織のコンテキスト供給能力を整える実装ガイド ─ 直視から、修復へ - 本記事の親記事
- 組織のコンテキスト供給能力を先に整える ─ AI 活用は副産物として後からついてくる - 「AI は組織の鏡」の論考
- ドキュメンテーション・シアター - AI 入力の一次ソースとしての文書管理
- ツール散乱と single source of truth の崩壊 - AI が参照すべき情報の所在
参考資料
Effective context engineering for AI agents - Anthropic Engineering (2025-09-29). 【信頼性: 高】 ↩︎ ↩︎2
Context Engineering for Coding Agents - Birgitta Böckeler, martinfowler.com (2026-02-05). 【信頼性: 中〜高】 ↩︎
The GenAI Divide: State of AI in Business 2025 - MIT Project NANDA (2025-08). 【信頼性: 高】 ↩︎
Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity - METR (2025-07-10). arXiv:2507.09089. 【信頼性: 高】 ↩︎