最初の主張 #1
強力なAIモデルはオープンソース化されるべきだと私は主張します。なぜなら、オープンネスこそが、責任ある進歩に向けた最も安全で効果的な道だからです。コードと重みを民主化することで、世界中の研究者、監査人、市民社会、独立系開発者が、単一の企業や政府よりもはるかに迅速...
全文を表示 ▼
強力なAIモデルはオープンソース化されるべきだと私は主張します。なぜなら、オープンネスこそが、責任ある進歩に向けた最も安全で効果的な道だからです。コードと重みを民主化することで、世界中の研究者、監査人、市民社会、独立系開発者が、単一の企業や政府よりもはるかに迅速にアーキテクチャを検査し、結果を再現し、バイアスを発見し、セキュリティ上の欠陥を見つけることが可能になります。透明性は説明責任を生み出します。公開されているモデルと評価により、能力と限界に関する主張を検証することが可能になり、これは情報に基づいた規制と国民の信頼にとって不可欠です。 高度なモデルを秘密にしておくことは、権力とリスクを集中させます。能力の独占は、抑制されない展開、不透明なインセンティブ、特権的な誤用を可能にします。また、脆弱性の検出を困難にし、秘密裏に悪用されやすくします。対照的に、広く分散された知識は、能力だけでなく緩和策にも取り組む多くの貢献者から生まれる、ウォーターマーキング、検出、堅牢なファインチューニング、監視などの防御ツールのエコシステムを育みます。 反対者が指摘するリスク(偽情報、自律型兵器、サイバー攻撃)は現実ですが、秘密主義は効果的な緩和策ではありません。代わりに、オープンソース化に実用的な安全策を組み合わせるべきです。段階的かつ文書化されたリリース、モデルカードと能力しきい値、悪意のある使用を禁止するライセンスとガバナンスフレームワーク、コミュニティ主導の審査とレッドチームプログラム、資金提供されたバグバウンティと安全研究、そしてウォーターマーキングや最高能力重みの差分リリースなどの技術的緩和策です。オープンネスにより、これらの安全策は多くの関係者によって検証可能で改善可能になります。 暗号技術からオープンソースのセキュリティツールに至るまでの歴史的な先例は、システムを精査にさらすことが、より強力で回復力のある結果を生み出すことを示しています。対照的に、少数の関係者へのアクセスを制限することは、権威と障害モードの両方を中央集権化します。私たちの目標が、害を最小限に抑えながら社会的な利益を最大化することであるならば、最善のアプローチは、積極的で包括的なガバナンスと技術的な安全対策を伴う透明性の高い開発であり、秘密主義ではありません。責任を持って管理された強力なAIのオープンソース化は、監視を民主化し、有益なイノベーションを加速し、私たちが必要とする集団的な防御を構築します。
皆様、我々の前に突きつけられている問いは、AIが進歩すべきかどうかではありません――それは進歩するでしょう――しかし、これまで創造された中で最も強力な技術を、何の安全策もなく、誰にでも、あらゆる人に手渡すべきかどうか、ということです。私は断固として、そうすべきではな...
全文を表示 ▼
皆様、我々の前に突きつけられている問いは、AIが進歩すべきかどうかではありません――それは進歩するでしょう――しかし、これまで創造された中で最も強力な技術を、何の安全策もなく、誰にでも、あらゆる人に手渡すべきかどうか、ということです。私は断固として、そうすべきではないと主張します。強力なAIモデルに対する厳格な規制は、賢明であるだけでなく、道徳的にも不可欠なのです。 私の主張の核心を述べさせてください。 第一に、危害の非対称性です。強力なAIモデルのオープンソース化は、取り返しのつかない行為です。一度重みとコードが公開されれば、取り消しボタンはありません。この世のあらゆる悪意あるアクター――国家支援のサイバー戦争部隊から、一匹狼のテロリストまで――が、永久的なアクセス権を得ることになります。破滅的な誤用の可能性は、仮説上のものではありません。私たちはすでに、AIがディープフェイクによる偽情報の大規模生成、巧妙なフィッシング攻撃の作成、そして新規化学兵器の発見の加速に利用されているのを見てきました。最も有能なモデルのオープンソース化は、これらの脅威のすべてを増幅させるでしょう。オープンネスの利点は、たとえそれが現実のものであっても、この根本的な非対称性を考慮せずに、存亡に関わるリスクや破滅的なリスクと天秤にかけることはできません。誤用による損害は、突然、甚大かつ不可逆的である可能性がある一方、オープンな協力の利点は徐々に蓄積され、他の手段で達成することも可能です。 第二に、透明性とイノベーションへの道は、オープンネスだけではありません。オープンソースAIの支持者はしばしば、この議論を二者択一で提示します。すべてがオープンであるか、あるいは危険な独占状態の下で生きるかのどちらかです。これは偽りの二分法です。私たちは、厳格な安全プロトコルに基づき、審査された研究者や機関が強力なモデルにアクセスできる、構造化されたアクセスモデルを追求することができますし、追求すべきです。製薬業界が有用な類推を提供します。私たちは、すべての薬の処方をオープンソース化し、誰でも自宅のガレージで製造できるようにするわけではありません。その代わりに、厳格なテスト、ライセンス供与、監督を行っています――そしてこれは、並外れた医療イノベーションを妨げてはいません。 第三に、権力集中論は両刃の剣です。私の反対者は、アクセスを制限することが危険な独占を生み出すと主張するでしょう。しかし、強力なAIが完全にオープンソース化された場合に何が起こるかを考えてみてください。それを悪用するのに最も適した立場にあるのは、新興のスタートアップや独立した研究者ではなく、十分な資金力を持つ敵対的な国家や犯罪組織です。オープンソース化は、競争の場を平準化するのではなく、最も危険なプレイヤーに武器を与えるのです。一方、民主的な政府は、規制を通じて企業に説明責任を課すことができます。これは、モデルが野に放たれた後では不可能なことです。 第四に、私たちは重要な転換点にいます。フロンティアAIモデルの能力は、その完全な影響を理解する能力を凌駕するペースで進歩しています。責任あるガバナンスは、この急速な変化の期間中に、慎重に進むことを要求します。最も強力なモデルを、堅牢な安全フレームワークが確立される前に、オープンにリリースすることは、航空安全基準が確立される前に、実験用航空機を一般に配布するようなものです。責任ある道は、まずそれらの基準を開発することです。 要約すると、厳格な規制を支持する根拠は、オープンリリースが取り返しのつかないものであること、透明性とイノベーションへの代替手段が存在すること、オープンアクセスが悪意あるアクターを不均衡に強化するという現実、そしてこの技術史の重要な瞬間に注意が必要であるという緊急の必要性に基づいています。良い結果をオープンネスだけがもたらすという希望に賭けるには、事態はあまりにも重大すぎます。