説2025――DAACT × HILOOP × AIRT × A‑LOG
- 山崎行政書士事務所
- 10月4日
- 読了時間: 14分

デジタル行政・自動化・アルゴリズム判断・AI行政の法制化と統制:〈人間の判断〉を中心軸に、〈記録〉で統べ、〈リスク〉で強度を切り替える
0 要旨(結論先出し)
DAACT(Digital‑Administrative AI Control & Transparency)――行政のAI・機械学習の導入から運用・救済までを貫く統一設計。中核は合法性(Legal Basis)、説明可能性(Explainability)、アカウンタビリティ(Accountability)、人間関与(Human‑in‑the‑Loop)、記録主義(Logging)、比例・公平(Proportionality & Fairness)、セキュリティ/プライバシー・バイ・デザイン。
HILOOP(Human‑in‑the‑Loop Open Operations Protocol)――通知→資料アクセス→意見→応答→修正→決定→記録公開の反復型プロトコルで、**自動決定にも“人の責任”**を通す。
AIRT(Administrative‑AI Risk Tiers)――リスク階層(T0~T3)で審査強度・説明深度・人間関与の度合いを切り替える。T3(高リスク)は人の最終決定・二層説明・外部監査を必置。
A‑LOG(Auditable LOG of Reasons)――理由・証拠・モデル情報・代替案・応答を時刻印ログとして保存・公開。ログ不備側に不利推定を働かせる“監査可能私法”の行政版。
第1章 問題の所在
適法性・説明責任の空白:AI搭載の審査・採点・配分が広がる一方、根拠規定・説明の深さ・異議申立の実効性が制度横断で不統一。
自動決定と手続保障の緊張:定型処理は効率的でも、例外事案・公平配慮をどう救い上げるかが未整備。
データとプライバシーの折り合い:目的外利用・二次利用・越境移転の場面で、最小化・透明性・本人関与が後付けになりがち。
オンライン化の副作用:到達・本人性・アクセシビリティ、意見反映の可視化がばらつく。
第2章 基本原則(DAACTの10要件)
合法性(Legal Basis):各アルゴリズムの目的・根拠規定を明記。
比例・必要最小限(Proportionality):目的—手段—代替案の比較を事前文書化。
説明可能性(Explainability):モデルレベルと事例レベルの二層説明を制度化。
人間関与(Human‑in‑the‑Loop):高リスクは人が最終決定。自動推奨→人の判断→理由提示を標準。
記録主義(Logging):入力・特徴量・モデル版・重み・出力・介入・修正を時刻印で保存。
公平性(Fairness):偏り測定・是正計画・差別禁止を導入時・定期に確認。
セキュリティ/プライバシー・バイ・デザイン:最小化・目的限定・保存期間、攻撃耐性(ポイズニング・推論攻撃)。
監査可能性(Auditability):内部監査+第三者監査、モデルカード/データカードの公開。
救済と異議(Redress):迅速な再審査・人手の再決定・反事実的改善策の提示。
公開性(Transparency):アルゴリズム台帳(登録)と運用指標の公開。
第3章 AIRT:リスク階層と強度切替
T0(最小):通知配信・情報検索等の事務支援。人間関与任意、説明簡略。
T1(低):申請の形式審査/重複検知。人間の抜取確認、単層説明、内部監査。
T2(中):給付・許認可の定型判定、リスクスコア。人の最終確認(二段階)、二層説明、年1回の公平性点検、事前影響評価。
T3(高):基礎的権利・生計・人格に重大影響(福祉停止、在留・雇用制限、信用付与の可否など)。人の最終決定必置、公開可能なモデル要約+事例説明、外部監査/事前パブコメ、異議申立の即時手続。
禁止帯:明白な差別分類・社会的スコアリング等は不許可。
効果:強度(人間関与・説明深度・監査頻度)をAIRTで自動選択することで、過度の負担と手続の空洞化を同時に避ける。
第4章 HILOOP:反復型の手続設計
Notice:根拠・目的・主要特徴量・人間関与の有無・異議窓口を個別+総覧で通知。
Access:記録アクセス(入力値・主要ルール要約・不利要素の提示)。
Input:反論・追加資料提出、例外事由の申出。
Reply:採否理由の応答(論点別)。
Revise:スコア再計算/再学習の適用可否。
Decide:人の最終判断(T2~T3)と理由提示。
Open‑Proof:A‑LOG公開(黒塗りは最小限+理由)。
到達・本人性の担保:eID/多要素認証/タイムスタンプ。デジタル・ディバイドには対面・電話・郵送の代替を確保。
第5章 二層説明(Model × Case)と“反事実的救済”
モデル説明(誰にでも):目的・法的根拠・データ源の範囲・主要特徴量・検証成績(精度/誤差/偏り指標)・更新頻度。
事例説明(本人向け):主要要因寄与(安定化した手法)、判断規範の自然言語化、改善のための反事実的提案(例:収入証憑追加・書類補正)。
安定化の原則:ローカル説明(LIME/SHAP的出力)は安定化手順(乱数固定・特徴量選定の固定)を通す。
第6章 異議申立・レビュー方式
一次審査(迅速):7~14日を目安に人手で再判断。新資料の受理、スコアの再計算。
二次審査(正式):独立審査官/審査会がA‑LOGに基づき審理。口頭意見(オンライン可)、反対尋問(T3)、将来効取消・条件付適用等の救済。
新理由制限/理由凍結:後出し理由は原則不可。必要なら撤回→再処分とし、相手方に反論機会を与える。
裁判接続(S2J‑Bridge):審査段階で形成したA‑LOGを裁判の主記録とし、争点圧縮会議で早期に焦点化。
第7章 データ利活用 × プライバシー
最小化・目的限定:アルゴリズムで使う属性・期間・出所を明細表で明示。目的外利用は本人同意/法令根拠が前提。
本人関与:開示・訂正・利用停止等の権利行使にオンライン窓口+対面代替を併設。
二次利用・越境移転:契約条項(目的限定・安全管理)と監査権を必置。
再識別対策:擬似匿名加工・差分プライバシー・連合学習等の技術的保護を導入。
攻撃耐性:データポイズニング・モデル反転・属性推論への防御と演習。
第8章 オンライン行政手続との接続
通知:到達推定+開封確認、読める日本語・多言語。
意見陳述:**期限・方法(書面/音声/動画)**の多様化、配慮申請の明文化。
情報公開:モデルカード・データカード・運用指標の公開ページを常設。
アクセシビリティ:WCAG等の到達水準を仕様に内在化。
第9章 調達・委託(ベンダ統制)
AIMS条項:AI管理システム(ガバナンス)をベンダ側にも義務付け。
MBOM(Model‑Bill of Materials):モデル版・依存ライブラリ・学習データの出所を部品表のように提出。
監査条項:独立監査への協力義務、インシデント報告(72時間目安)、再学習・モデル更新の審査ゲート。
知財・ライセンス:データ/モデルの著作権・ライセンス適合性の保証。
第10章 検証・監査・運用
導入前:サンドボックス→影(シャドー)運用→限定本番の三段階。有害性・偏り・安定性の基準を合格/条件付合格/不合格で判定。
運用中:ドリフト検知、**重要指標(精度・誤判率・却下率・不服率・処理時間)**の公開。
定期監査:T2は年1回、T3は年2回+外部。監査報告書要約を公開。
第11章 事故対応(Algorithmic Incident Response)
定義:重大誤判・差別的影響・セキュリティ侵害・広範囲停止。
手順:殺スイッチ(緊急停止)→暫定手動運用→影響範囲特定・通知→是正・再発防止→公開報告。
近接事案の届出:ニアミスも届出対象。学習共有を横展開。
第12章 ソフトロー/通達の自己拘束(Comply‑or‑Explain)
ガイドライン階層:法令>命令・規則>通達・指針>FAQ。上位からの逸脱ほど厳格理由。
逸脱理由の記載:Equity‑Receiptに具体的事実と比較事例を明記。平等取扱を担保。
第13章 ケース適用(要点)
就労支援給付の自動審査(T2)人の最終確認+二層説明+反事実的提案、異議14日。偏り指標の公開。
建築許可のリスクスコア(T2→T3化条件付)例外事由(災害・高齢者配慮等)を人が加点できるUI、条件付許可の自動生成。
在留・保安関連(T3)人間最終決定・公開聴聞・独立審査官、将来効取消・条件付適用を救済メニューに常備。
第14章 反論と応答
「説明・監査が重い」:AIRTで強度を切替。高リスクに厚く、低リスクは軽く。
「ブラックボックスなので説明できない」:モデル説明は要約可能。事例説明は政策規範の言語で足る。“できない”システムはそもそも導入不可。
「自動化の効率が落ちる」:シャドー運用→限定本番で質と効率を両立。誤判・炎上コストの回避がネットで得。
「個人情報が増える」:最小化・保存期間・アクセス統制をA‑LOGで可視化し、再識別防止の技術措置を前置。
第15章 導入ロードマップ(180日)
0–30日:アルゴリズム台帳雛形、AIRT区分、A‑LOG様式を制定。
31–90日:2案件のパイロット(T1/T2各1)。HILOOP運用、反事実的説明のテンプレ化。
91–180日:T3案件の設計審査(外部監査者選定・公開聴聞の設計)。**調達条項(MBOM・監査権)**の全庁化。監査ダッシュボードを公開。
結語
人間の判断を中心に置き、記録で統べ、リスクで強度を切り替える。DAACT × HILOOP × AIRT × A‑LOGは、デジタル行政の効率化と権利保障を両立させる実装可能な設計図である。“自動化は手続の短縮ではない。自動化は手続の“可視化”である。”――これが2025年の行政AI統制の底意である。
参照リンク集
国際的枠組み・標準EU Artificial Intelligence Act(本文・概要)https://artificialintelligenceact.eu/OECD AI Principles(OECD.AI)https://oecd.ai/en/ai-principlesNIST AI Risk Management Framework(RMF)https://www.nist.gov/itl/ai-risk-management-frameworkISO/IEC 42001:2023(AI Management System)https://www.iso.org/standard/81230.html
個人情報・自動化関連(欧州)GDPR(General Data Protection Regulation)https://eur-lex.europa.eu/eli/reg/2016/679/ojEDPB Guidelines on Automated individual decision-making and Profiling(WP251rev.01)https://edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-automated-individual-decision-making-and_en
公開性・説明責任情報公開法(行政機関情報公開法)https://elaws.e-gov.go.jp/document?lawid=411AC0000000042公文書管理法https://elaws.e-gov.go.jp/document?lawid=421AC0000000066
監査・セキュリティサイバーセキュリティ基本法https://elaws.e-gov.go.jp/document?lawid=425AC0000000104NISC(内閣サイバーセキュリティセンター)関連資料https://www.nisc.go.jp/
補助資料(モデル・データ記述)Model Cards for Model Reporting(Google Research)https://research.google/pubs/pub68257/Datasheets for Datasets(MIT)https://arxiv.org/abs/1803.09010
(実務適用に際しては、上記リンクの最新改訂・運用通知を原典でご確認ください。)
追補――AIエンジニア視点で“DAACT × HILOOP × AIRT × A‑LOG”を実装する
狙い既に提示した枠組み(DAACT:統制原理/HILOOP:反復型手続/AIRT:リスク階層/A‑LOG:監査可能ログ)を、現場実装(MLOps・セキュリティ・運用)へ落とし込みます。以下は行政システムの発注仕様・内規・監査手順としてそのまま転用できる粒度で提示します。
1. ガバナンスと役割分担(RACI)
Product/業務所管:要件定義、ルール起案、AIRTレベル決定の提案。
法務・個情保:法的根拠・比例原則・本人関与・秘匿化戦略の適合性評価。
AIエンジニア/データサイエンティスト:モデル設計・学習・検証・モデルカード作成。
MLOps/SRE:CI/CT/CD、監視、ドリフト検知、ロールバック、殺スイッチ運用。
CISO/セキュリティ:データ分類、鍵管理、脅威モデリング、攻撃対応。
第三者監査:T3案件の外部監査、年次レビュー。
承認ゲート:設計承認(Gate 1)→影運用承認(Gate 2)→限定本番(Gate 3)→全面本番+年次更新(Gate 4)。
2. ライフサイクル(要件→データ→学習→検証→展開→運用)
2.1 データ管理(DataOps)
データカタログ/系統(Lineage):取得根拠・目的・保持期間・共有先を台帳化。
機微属性の最小化:T2/T3では目的合理性が立たない属性を排除(例:民族・宗教・政治信条等)。
特徴量ストア:オンライン/オフライン同一実装(リーク/乖離防止)。TTLと再計算周期を明記。
疑似匿名化・鍵分離:識別子は鍵管理で分離保管、学習用は擬似匿名を原則。
2.2 学習・再現性
固定要素:乱数種、依存ライブラリ、コンパイラ、ドライバ、Dockerイメージのハッシュ化。
環境封印:**モデル成果物={重み, 前処理, 閾値, 依存, 学習データ要約}**をバンドル。
データ汚染対策:重複・リーク・将来情報混入検査、データ水質レポートを作成。
2.3 検証(オフライン)
性能:正解率、F1、AUCに加え校正(Calibration)、閾値感度。
公平性:FPR/FNR格差、予測値の校正格差、Equalized Oddsなど複数指標で評価(交差的属性も測定)。
堅牢性:極端値・欠損・分布変動、敵対的摂動(adversarial)テスト。
可説明性:グローバル(特徴量重要度)/ローカル(事例説明)を安定化手順付きで出力。
法的適合:目的−手段−代替案比較(比例原則の技術添付書)。
2.4 展開(デプロイ)
シャドー運用→カナリア→ロールアウト:T2/T3は必須。
N+1バックアップ:直前モデルを即時復旧可能に保持。
殺スイッチ:誤判・差別影響・セキュリティ事故時に自動フェイルオーバー(手動審査フロー)。
2.5 運用監視(Observability)
主要KPI:処理件数、決定遅延、却下率、異議率、覆率、属性別誤差、苦情件数。
ドリフト検知:PSI/KL/EMD、性能の時系列劣化、閾値逸脱でアラート。
エラー予算:公平性・品質に許容範囲を設定、超過で更新凍結。
3. AIRT(T0–T3)× 技術コントロール対応表
4. HILOOPを実装するUI/UX要件
通知:根拠条文、AIRTレベル、人間関与の有無、異議窓口、提出フォーマットを一画面で。
資料アクセス:入力値プレビュー、主要要因寄与、参考基準を本人に提示。
反論:例外事由テンプレ(疾病・介護・災害等)、追加証拠アップロード、期限延長申請。
応答:論点別に採否・理由を返す(自動テンプレ+担当者追記)。
記録公開:Decision/Evidence/Replyの要約版を公開(個人識別情報は黒塗り)。
5. A‑LOG(監査可能ログ)の最小スキーマ
決定系:decision_id, time, model_id, model_ver, feature_hash, input_digest, decision, score, threshold, confidence, airt_tier, human_decider_id, override_flag, override_reason_code
説明系:global_importance[], local_explanation[], stability_score
公平性:group_attrs (hashed), fpr, fnr, calibration_gap
運用系:latency_ms, retry_count, error_code, canary_bucket
変更系:change_id, before_model_ver, after_model_ver, change_reason, approver, rollback_token
監査原則:不可改ざん(ハッシュ鎖)、時間順(タイムスタンプ同期)、最小限開示(黒塗り理由付き)。ログ欠落側に不利推定を適用。
6. 異議申立て・レビュー(エンジニアの運用)
一次(7–14日):人手再判断、反事実提案(どの書類・条件を満たせば通るか)を自動生成。
二次(正式):審査官がA‑LOGと反証を突き合わせ、条件付許可/将来効取消等の設計も検討。
理由凍結:展開後の後出し理由を禁止。必要なら撤回→再処分(全ログを継承)。
7. LLM(生成AI)を行政で使う際の追加統制
ユースケース区分:変換(要約・翻訳)/検索補助(RAG)/判定・助言/自動決定(基本不可)。
RAG設計:機密データは埋め込みを暗号化、一時メモリ(セッションTTL)、検索クエリにPIIを入れない。
入力防御:プロンプトインジェクション検知、ファイルマクロ無効化。
出力検閲:機微・名誉毀損・個人情報の検査、ファクト検証(ナレッジへの照合)。
説明:参照ドキュメントの出典を提示(URLは公開情報に限る/内部は文書ID)。
人の最終判断:T2/T3でLLMの“決定”は禁止。助言→人判断のみ。
8. セキュリティ・プライバシー設計
鍵管理(KMS)、転送・保管の暗号化、ゼロトラストネットワーク、権限分離(RBAC/ABAC)。
PIA/DPIA:導入前に影響評価、残留リスクと緩和策を記録。
再識別対策:差分プライバシー、連合学習、k-匿名化。
インシデント対応:72時間以内報告、殺スイッチ、暫定手動運用、影響通知。
9. 調達・ベンダ管理(AI×公共調達版 “赤本”)
MBOM(Model Bill of Materials):学習データ出所、ライセンス、前処理、モデル依存を明細。
監査権・再学習審査:外部監査協力義務、更新の事前承認。
サービス保証:SLO(決定遅延・エラー率・覆率)とエラー予算、違反時の罰則・補償。
知財・秘密保持:逆コンパイル禁止と検証可能性の両立(モデル要約・テスト環境提供)。
10. ケース別“落とし込み”
10.1 給付審査(T2)
モデル:特定給付の適格性判定。
UI:要因寄与・不足資料を本人に提示、反事実提案を自動生成。
異議:一次7日/二次30日、条件付許可(期日後書類提出で自動成立)を用意。
10.2 建築指導のリスクスコア(T2→条件によりT3)
例外UI:災害・バリアフリー等の人手加点ボタンを設計(ログ必須)。
透明性:モデルカード・指標を公開、苦情率をKPI化。
10.3 在留・公的資格(T3)
公開聴聞+独立審査官、ローカル説明+反事実、弁護人参加、将来効取消オプション。
11. 90/180日ロードマップ
0–30日:アルゴリズム台帳・AIRT割付規程・A‑LOGスキーマ制定。パイロット選定。
31–90日:T1/T2パイロットをシャドー→限定本番、HILOOP UIと異議SOPを整備。
91–180日:T3設計審査(外部監査選定、公開聴聞設計)、**調達条項(MBOM・監査権)**全庁導入、監査ダッシュボード公開。
12. 反論への先回り
重すぎる:AIRTで高リスクだけ厚く。低リスクは軽量運用。
ブラックボックス:二層説明+安定化で再現可能性を担保。説明できないものは導入不可。
効率が落ちる:影運用→段階展開で品質を前倒し確保。誤判・炎上の回避で総コストは減。
個人情報が増える:最小化・TTL・暗号化・差分プライバシーで**“使っても漏らさない”**体制に。
参照リンク集
国際枠組み・標準EU Artificial Intelligence Act(本文・概要)https://artificialintelligenceact.eu/OECD AI Principles(OECD.AI)https://oecd.ai/en/ai-principlesNIST AI Risk Management Framework(RMF)https://www.nist.gov/itl/ai-risk-management-frameworkISO/IEC 42001:2023(AI Management System)https://www.iso.org/standard/81230.html
実務参考(モデル・データ記述)Model Cards for Model Reporting(Google Research)https://research.google/pubs/pub68257/Datasheets for Datasets(MIT)https://arxiv.org/abs/1803.09010
(実装に当たっては、各リンク先の最新版・適用範囲・運用通知を原典でご確認ください。)





コメント