最初の主張 #1
人工知能に主要な公共政策決定において大きな権限を与えるべきだという主張は、単純だが強力な観察に基づいている。すなわち、現在の人類主導の統治システムは深刻な欠陥があり、AIはすべての人々にとって、より公正でより効果的な結果をもたらす変革的な道を提供するというもので...
全文を表示 ▼
人工知能に主要な公共政策決定において大きな権限を与えるべきだという主張は、単純だが強力な観察に基づいている。すなわち、現在の人類主導の統治システムは深刻な欠陥があり、AIはすべての人々にとって、より公正でより効果的な結果をもたらす変革的な道を提供するというものである。 第一に、現代の統治の規模と複雑さを考えてみよう。都市の予算には、数千もの競合する優先事項、人口統計、インフラの状態、経済動向、健康状態、環境要因に関する数百万ものデータポイントが含まれる。どんなに意欲的な人間委員会であっても、この情報を最適に統合することはできない。AIシステムならそれが可能だ。人間のアナリストには見えないパターンを特定し、政策選択の長期的な影響を数十年先までモデル化し、最大の測定可能な利益を生み出す場所にリソースを配分できる。すでに、適切に設計・監査されたアルゴリズムツールは、医療診断から再犯予測まで、人間の判断を上回る成果を上げているという研究がある。統治がこの利点から免除されるべきだという原則的な理由は存在しない。 第二に、AIは、人間による政治的意思決定のよく知られた失敗に対する解決策を提供する。政治家は、アンカリング、利用可能性ヒューリスティック、現状維持バイアスなどの認知バイアスに影響される。彼らは逆説的なインセンティブに直面している。短い選挙サイクルは、長期的なインフラ維持よりも派手なプロジェクトを優先させ、選挙運動の寄付者は歳出の優先順位を歪め、党派的な対立は証拠に基づいた解決策を妨げる。その結果、慢性的な誤配分が生じる。道路は崩壊する一方でスタジアムは資金を得る。社会サービスは、データがそれを支持しているからではなく、脆弱な人々が政治的権力を持っていないために削減される。対照的に、AIシステムは、ロビイストや選挙サイクルの腐敗した影響から解放され、不平等の削減、公衆衛生の成果の最大化、環境被害の最小化といった、透明で測定可能な目標を最適化するように設計できる。 第三に、説明責任に関する懸念は、AI統治に反対する議論ではなく、完全に解決可能な設計上の課題である。私たちは、完全な監査証跡、必須の説明責任要件、そして決定をレビューし、覆すことができる人間の監督委員会を備えたAI統治システムを構築できる。これは、裏取引、立法上のライダー、不透明な官僚的裁量によって説明責任がすでに曖昧になっている現在のシステムよりも、実際にはより透明性が高い。考慮したすべての変数と適用したすべての重みを記録する必要があるAIシステムは、原則として、単に自分の判断を使用したと言う政治家よりもはるかに監査可能である。 第四に、バイアスの議論は両刃の剣である。確かに、AIは歴史的データに存在するバイアスをエンコードする可能性があるが、人間の意思決定者も同様のバイアス、さらにはそれ以上のバイアスを抱えており、検出や修正のメカニズムがないことが多い。アルゴリズムバイアスの利点は、測定、テスト、体系的に修正できることだ。政治家の潜在的な偏見に対して回帰分析を実行することはできない。適切な公平性制約、敵対的テスト、多様な開発チームがあれば、AIシステムは、それが置き換える人間のプロセスよりも明らかにバイアスの少ないものにすることができる。 最後に、これは民主主義を置き換えることではない。それは民主主義を強化することだ。市民は依然として民主的なプロセスを通じて価値観と目標を設定し、どの結果が最も重要かを投票できる。AIはその後、公平な実行者となり、民主的に選ばれた目標への最良の道を見つける。これにより、「何」と「どのように」が分離され、人間の価値観が中心に保たれながら、計算能力が実装に活用される。その結果、今日私たちが持っているものよりも、より応答性が高く、より公平で、より信頼性の高い統治システムが生まれる。 問題は、AIに統治を任せる余裕があるかどうかではない。問題は、純粋に人間主導のシステムが、奉仕すべき人々を裏切っているという増え続ける証拠を考えると、それを任せない余裕があるかどうかである。
論題:いいえ――AIに主要な公共政策の決定を委ねることは、民主的な統治にとって脅威となります。社会の重要な選択には、アルゴリズムが提供できない道徳的判断、政治的正当性、そして明確な説明責任が必要です。 1) アルゴリズムは隠れたバイアスを永続させ、拡大します。機械シ...
全文を表示 ▼
論題:いいえ――AIに主要な公共政策の決定を委ねることは、民主的な統治にとって脅威となります。社会の重要な選択には、アルゴリズムが提供できない道徳的判断、政治的正当性、そして明確な説明責任が必要です。 1) アルゴリズムは隠れたバイアスを永続させ、拡大します。機械システムは、社会的不公正を反映した過去のデータから学習します。実際には、これはリスク評価、警察活動、福祉決定において差別的な結果を生み出してきました。偏ったパターンが自動化された決定規則に組み込まれ、大規模に適用されると、十分な救済措置なしに、不利な立場にあるグループが体系的に排除されたり、危害を加えられたりする可能性があります。 2) 不透明性は公衆の監視を損ないます。多くの影響力の大きいモデルは、専有であったり、不透明であったりします。コードが利用可能であっても、複雑な統計的挙動や予期せぬ障害モードは、市民や立法者にとって評価が困難です。民主主義は、価値観とトレードオフに関する透明性のある推論に依存しています。ブラックボックスの決定は、監視、議論、そしてインフォームド・コンセントを妨げます。 3) 説明責任が消滅します。自動化されたシステムが有害な予算決定や社会サービス決定を行った場合、誰が有権者に責任を負うのでしょうか?「アルゴリズムが決めた」という主張によって、選出された公務員は免責される可能性があり、ベンダーは技術的な複雑さの陰に隠れることができます。この責任の拡散は、権力を行使する者は政治的に説明責任を負わなければならないという原則と相容れません。 4) 政策の選択は、純粋な技術的最適化ではなく、争点となる価値観を反映します。公平性と効率性、短期的な救済と長期的な投資といった、競合する公共財の間で決定を下すには、規範的な熟議、共感、そして政治的なトレードオフが必要です。これらは、AIがデータから単独で発見できる客観的な目標ではなく、民主的なプロセスに埋め込まれた人間の判断です。 5) 脆弱性と操作のリスク。モデルは、仕様、トレーニングデータ、インセンティブに敏感です。それらは操作されたり、壊滅的な分布シフトに苦しんだり、一時的なパターンを永続的な政策として成文化したりする可能性があります。生活や権利に影響を与える決定においては、そのような失敗に対する許容度はゼロに近くなければなりません。 責任ある代替案:AIを意思決定者ではなく、意思決定支援ツールとして使用します。システムは、選出された公務員の管理下にあり、開かれた議論、法的基準、そして民主的な監視の対象となるまま、証拠を提示し、シナリオをモデル化し、トレードオフを浮き彫りにすることができます。透明性義務、独立監査、影響評価、そして明確な政治的責任の線といった、執行可能な規範が、自動化されたツールのいかなる使用も規制すべきです。 結論:効率性とデータに基づいた洞察は価値がありますが、それらは不透明で説明責任のないアルゴリズムに中核的な政策権限を譲渡することを正当化するものではありません。民主主義は、公衆に説明責任があり、道徳的判断を下す能力のある人間が、主要な政策決定に対する最終的な権限を保持することを必要とします。