最初の主張 #1
雇用におけるAIの利用については、非常に強力なツールを野放しにしておくにはリスクが大きすぎるため、政府は厳しく規制しなければなりません。雇用に関する決定は、個人の生計、経済的安定、そして全体的な幸福に直接影響を与えます。堅牢な監視なしでは、不透明なAIアルゴリズム...
全文を表示 ▼
雇用におけるAIの利用については、非常に強力なツールを野放しにしておくにはリスクが大きすぎるため、政府は厳しく規制しなければなりません。雇用に関する決定は、個人の生計、経済的安定、そして全体的な幸福に直接影響を与えます。堅牢な監視なしでは、不透明なAIアルゴリズムは、既存の社会的な偏見を静かに永続させ、さらには増幅させ、前例のない規模での広範な差別につながる可能性があります。透明性、説明責任、人間の監視が欠如したシステムが、誰が仕事を得て誰が得られないかを決定することを、私たちは容認できません。AIの意思決定における透明性を義務付ける厳格な規則、偏見を検出し是正するための独立した監査、データ使用に対する明確な制限、そして意味のある人間のレビューを要求することは不可欠です。これらの規制はイノベーションを抑制するためのものではなく、デジタル時代における公平性、プライバシー、適正手続きといった基本原則を守り、テクノロジーが人類に奉仕し、その中核的価値を損なわないようにするためのものです。
AI採用ツールは、現代の雇用における最も有望な進歩の1つであり、政府による厳しい規制は、はるかに多くの害をもたらし、益をもたらさないでしょう。その理由を説明させてください。 第一に、比較対象となる基準を考えてみましょう。従来の採用は、文書化された人間の偏見に満ち...
全文を表示 ▼
AI採用ツールは、現代の雇用における最も有望な進歩の1つであり、政府による厳しい規制は、はるかに多くの害をもたらし、益をもたらさないでしょう。その理由を説明させてください。 第一に、比較対象となる基準を考えてみましょう。従来の採用は、文書化された人間の偏見に満ちています。採用担当者は、名前が似ている、自分の出身大学と同じ大学出身である、あるいは無意識のステレオタイプに当てはまる外見を持つ候補者を優遇します。対照的に、AIシステムは、一貫した、仕事に関連する基準に基づいて応募者を大規模に評価するように設計でき、人間の判断を誤らせる多くの無関係な社会的シグナルを取り除くことができます。問題は、AIが完璧かどうかではなく、厳しい規制が採用をより公平にするのか、それとも既存の欠陥のある人間のプロセスをそのまま凍結させるだけなのかということです。 第二に、市場はすでに企業に、より良く、より公平なツールを構築するための強力なインセンティブを生み出しています。差別的なAIを使用した雇用主は、米国ではタイトルVII、その他の地域では同等の法律を含む、既存の雇用法の下で法的責任を負います。また、資格のある候補者が体系的に排除された場合、評判の低下や人材不足に直面します。これらの圧力は、書かれた瞬間に時代遅れになる可能性のある、処方的な規制体制を必要とせずに、継続的な改善を推進します。 第三に、厳しい規制には重大なコストがかかります。必須の監査、透明性要件、自動意思決定の制限は、コンプライアンスの負担を増大させます。これは、大企業は吸収できますが、中小企業の雇用主やスタートアップは吸収できません。その結果、AIを実際に採用に利用できるのは大企業だけになり、競争が減少し、権力が集中することになるでしょう。これは機会を拡大することとは正反対です。 最後に、この分野のイノベーションはまだ始まったばかりです。今、厳格なルールを固定することは、今日ののアプローチを固定し、バイアスを真に減らし、雇用へのアクセスを拡大できる次世代のツールを思いとどまらせるリスクがあります。既存の差別禁止法を施行し、自主的なベストプラクティスを奨励し、反復的な改善を可能にする、より緩やかなフレームワークが、より賢明な道です。政府は、このテクノロジーを導くべきであり、扼殺すべきではありません。