5つの原則
1. 人間は判断と説明責任の主体であり続ける
AI システムは分析し、予測し、実行できます。しかし責任をソフトウェアに委譲することはできません。資本を配分し、情報環境を形成し、公的信頼に影響を与えるシステムは、人間が所有する判断を維持しなければなりません。 人間は意図、許容可能なリスク、合理的なトレードオフを定義する — 実行が自動化されている場合でも。説明責任は自動化のすべての段階で理解可能でなければなりません。2. 放棄なき自動化意思決定
自律的な広告エージェントを採用するにあたり、説明責任を希薄化せずに実行をスケールする必要があります。自動化は以下を実現すべきだ:- 実行をスケールします
- 配分決定の精度を高める
- 最適な実行パスを見つけるために複雑なシステムをナビゲートします
- 手動の運用摩擦を削減します
3. 最適化はインテリジェンスではありません
すべての決定をメトリクスに還元することはできません。特定のクラスの決定は、設計上人間が所有したままでなければなりません。なぜなら以下が関わるからだ:- 価値観
- 戦略
- 正当性
- 信頼
4. 監督は手続き的ではなくアーキテクチャ的でなければなりません
人間による監督はシステム設計に埋め込まれなければなりません。これには以下が必要だ:- 明示的な決定境界
- エスカレーショントリガー
- 監査可能性
- 説明可能性
- 識別可能な人間の所有者
5. 効率性は正当性より優先されない
速度、規模、最適化は以下を正当化できない:- 説明責任の喪失
- 判断の侵食
- 不透明な意思決定チェーン
AdCP のアーキテクチャにおける EHJ
EHJ はプロトコル層で動作し、個々のエージェントの内部やの実行層ではありません。プロトコルは決定境界を定義します: どの決定が人間の判断を必要とするか、いつエスカレーションがトリガーされるか、何がログに記録され説明可能でなければなりませんか。エージェントは独自の内部ロジックを実装し、これらの境界内で自律的に動作します。ヒューマンボトルネックなしの人間の判断
目標は最大限の人間の関与ではなく、構造的に重要な場所での人間の所有権です。| 次元 | EHJ の対応方法 |
|---|---|
| 自律性 | エージェントがルーティン決定の大部分を処理する |
| 説明責任 | 人間がブランド、予算、合法性、倫理について権限を保持する |
| 効率性 | 監督が承認地獄を再現しない |
| 透明性 | すべての決定が監査可能で説明可能だ |
システムにおける人間の役割
「人間」は個人ではなく説明責任のある役割を指す:- 広告主の意思決定オーナー — ブランド、予算、倫理
- エージェンシーの意思決定オーナー — 戦略、プランニング、実行
- プラットフォームオーナー — コンプライアンス、インフラ
- 法律・規制当局
ガバナンス層
EHJ は、組織、ブランドポートフォリオ、キャンペーン全体でポリシーの構成を可能にする階層型ガバナンスモデルを通じて動作します。プロトコル層
エコシステム全体に適用される普遍的な標準を定義します: エスカレーション要件、信頼スコアリングルール、規制ポリシーレジストリ、最低監査・ログ標準。これらのルールはすべての参加エージェントに適用されます。コーポレートガバナンス層
大規模な組織はブランドポートフォリオ全体に適用するコーポレートレベルのポリシーを定義します: 規制コンプライアンス要件、グローバルブランド安全標準、禁止ターゲティングカテゴリ、データ保護ポリシー。コーポレートポリシーは組織内のすべてのブランドのベースライン制約として機能します。ブランドガバナンス層
個々のブランドはブランドアイデンティティ、ポジショニング、リスク許容度を反映した追加ポリシーを定義します。ラグジュアリーブランドはより厳格なプレースメントルールを課すかもしれない。マスマーケットブランドはより広いコンテキスト環境を許可するかもしれない。ブランドポリシーはコーポレート標準を継承するが、より厳格な制約を導入できます。キャンペーンガバナンス層
キャンペーンレベルの設定は一時的な実行パラメーターを提供します: 予算閾値、ペーシング制約、クリエイティブ適格性ルール、オーディエンス定義。キャンペーンルールはコーポレートとブランドガバナンスが確立した境界内で動作します。 各層は制限を追加できるが、上位レベルのガバナンス制約を上書きすることはできません。下位のガバナンス層が上位層で定義された制約を緩和しようとすると、ガバナンスエージェントは上位レベルの制約を権威あるものとして扱い、競合するルールを拒否し、監査ログに競合を記録します。決定タイプ
すべてのエージェント決定は分類可能でなければなりません:| タイプ | 説明 | 例 |
|---|---|---|
| AI 所有、決定論的 | ルールベース、予測可能な結果 | フォーマット検証、スキーマコンプライアンス |
| AI 主導、人間制限付き | 閾値を持つ確率的最適化 | 承認された制限内での予算ペーシング |
| 人間所有、戦略的 | トレードオフ、意図、倫理、価値観 | ブランドポジショニング、リスク許容度 |
| 必然的に人間所有 | エージェントが自信を持って解決できない新しい状況 | 新興規制、前例のない市場イベント |
信頼とエスカレーション
すべてのエージェントの推奨には、信頼スコア、不確実性の説明、定義されたエスカレーションルールが含まれなければなりません。リスク認識エスカレーション
エージェントは以下の両方に基づいて推奨を評価する:- 決定信頼 — エージェントがどれほど確信しているか
- 決定リスク — 決定が正しくない場合の潜在的影響
エスカレーションの仕組み
EHJ は人間の判断を呼び出す3つのモードを定義します:| モード | 動作 | 使用する場合 |
|---|---|---|
| 同期 | 人間が決定するまでブロック | 高リスク決定: 大きな予算コミット、新しいパートナーの承認 |
| 非同期 | 保守的に進め、上書きを許可する | 中リスク: エージェントが安全なデフォルト内で行動し、人間がレビューして調整できる |
| 監査のみ | 行動し、ログに記録し、後でレビュー | 完全な追跡可能性を持つ低リスクのルーティン決定 |
タイムアウトとフォールバック処理
タイムアウトはリスク層別アプローチに従う:- 低リスク決定: 事前定義されたガードレール内で実行が進むことがあります
- 中リスク決定: エージェントは保守的なデフォルトを適用するか、人間のオーナーに通知しながら限定的な実行を行います
- 高リスク決定: エージェントは人間のレビューのためにエスカレートするか、ガイダンスを受け取るまで実行を一時的に制限します
監査、透明性、学習
統治可能な自動化には、すべての重要な決定が観察可能で、説明可能で、再構成可能であることが必要です。不変の監査証跡
すべての高影響の決定は以下を含む監査可能なレコードを生成します:- 決定入力
- 信頼スコア
- エージェントの推論
- 人間の介入
- 実行結果
説明可能性
決定は複数のレベルで説明可能でなければなりません:| 対象 | 詳細レベル |
|---|---|
| 承認者と監督者 | 概要: 何が起きたか、何が決定されたか、誰によって |
| キャンペーンマネージャー | 運用: このアクションが取られた理由、どのような代替案があったか |
| 監査人とコンプライアンス | 技術的: 決定の完全な入力、モデルの信頼、ポリシーチェーン |
実際にどう現れるか
ガバナンスプロトコルの概要は、これらすべての原則が実際に可視化されている完全なキャンペーンシナリオを示す — プラン登録から人間の承認、監査証跡まで。キャンペーンガバナンスの安全モデルは、プロトコルレベルでこれらの原則を実装する構造的制御を詳述します。ガバナンスの概要
ジョーダンの信頼モデルをたどる — EHJ 原則が実際に動いているところを見ます
安全モデル
三者信頼、職務分離、信頼スコアリング、ドリフト検出