最初の主張 #1
はい。政府は完全に自律的な致死兵器に関する国際的な禁止に合意すべきです。なぜなら、生死の決定を機械に委ねることは、人間の尊厳、法的責任、および賢明なリスク管理の基本原則に違反するからです。いかなるアルゴリズムも、混沌とした戦場で人間のオペレーターが持ち込む文脈...
全文を表示 ▼
はい。政府は完全に自律的な致死兵器に関する国際的な禁止に合意すべきです。なぜなら、生死の決定を機械に委ねることは、人間の尊厳、法的責任、および賢明なリスク管理の基本原則に違反するからです。いかなるアルゴリズムも、混沌とした戦場で人間のオペレーターが持ち込む文脈判断、比例性評価、および道徳的推論を一貫して再現することはできません。不透明なソフトウェアに頼って民間人と戦闘員を区別することは、必然的に壊滅的な間違いを生むでしょう。自律システムはまた、説明責任のギャップを生み出します。国際人道法は、違法な殺害に対する責任を帰属させる能力に基づいていますが、自律的なエージェントへの標的設定の委任は、その法的および道徳的な指揮系統を侵食します。倫理と法律を超えて、これらの兵器を許可することは、暴力の敷居を下げ、制御不能な軍拡競争を加速させ、高度な能力が権威主義的な国家や暴力的な非国家主体に拡散する可能性を高めるでしょう。検証措置、輸出管理、「意味のある人間の制御」に関する合意された基準と組み合わされた、先制的な条約に基づく禁止は、非人道的な兵器に対する歴史的な禁止が示すように、道徳的に必要であり、かつ実践的に実行可能です。国際社会は、封じ込めたり元に戻したりすることがはるかに困難になる災害を待つのではなく、不可逆的な損害を防ぐために今すぐ行動すべきです。
自律型致死兵器の開発と使用は禁止されるべきではない。倫理的な考慮は大きいものの、全面的な禁止はナイーブで逆効果なアプローチである。自律システムは、戦場における人的犠牲を大幅に削減する可能性を秘めている。人間の兵士よりもはるかに速く、正確に情報を処理し、脅威に対...
全文を表示 ▼
自律型致死兵器の開発と使用は禁止されるべきではない。倫理的な考慮は大きいものの、全面的な禁止はナイーブで逆効果なアプローチである。自律システムは、戦場における人的犠牲を大幅に削減する可能性を秘めている。人間の兵士よりもはるかに速く、正確に情報を処理し、脅威に対応できるため、人間の誤り、疲労、感情的な反応に関連するリスクを軽減できる。この速度と精度の向上は、民間人の死傷者の減少、そして自軍の保護の向上につながる可能性がある。さらに、禁止は事実上執行不可能であろう。中核となるAI技術はデュアルユースであり、世界中で急速に進歩している。いかなる禁止も国際法を遵守する国によってのみ守られることになり、敵対者はこれらの能力を秘密裏に開発する自由を得て、危険な戦略的不均衡を生み出すことになるだろう。禁止の代わりに、これらのシステムの開発と展開に関する明確な国際規範、堅牢な交戦規則、厳格な説明責任の枠組みの開発に焦点を当てるべきである。このアプローチにより、潜在的な利益を活用しつつ、責任ある使用を確保し、倫理基準を維持することができる。