Declaration d ouverture #1
Je soutiens que les modèles d'IA puissants devraient être open-source car l'ouverture est la voie la plus sûre et la plus efficace vers un progrès responsable. La démocratisation du code et des poids permet une collaboration mondiale : les chercheurs, les audi...
Afficher la reponse complete ▼
Je soutiens que les modèles d'IA puissants devraient être open-source car l'ouverture est la voie la plus sûre et la plus efficace vers un progrès responsable. La démocratisation du code et des poids permet une collaboration mondiale : les chercheurs, les auditeurs, la société civile et les développeurs indépendants peuvent inspecter les architectures, reproduire les résultats, trouver les biais et découvrir les failles de sécurité beaucoup plus rapidement que ne le peuvent une seule entreprise ou un seul gouvernement. La transparence crée la responsabilité : les modèles et les évaluations publiquement disponibles permettent de vérifier les affirmations sur les capacités et les limites, ce qui est essentiel pour une réglementation éclairée et la confiance du public. Garder les modèles avancés secrets concentre le pouvoir et le risque. Les monopoles sur les capacités permettent un déploiement non contrôlé, des incitations opaques et une utilisation abusive privilégiée ; ils rendent également les vulnérabilités plus difficiles à détecter et plus faciles à exploiter en secret. En revanche, une connaissance largement distribuée favorise un écosystème d'outils défensifs — filigranage, détection, réglage fin robuste et surveillance — qui découle de nombreux contributeurs travaillant sur l'atténuation, et pas seulement sur la capacité. Les risques cités par les opposants (désinformation, armes autonomes, cyberattaques) sont réels, mais le secret n'est pas une atténuation efficace. Au lieu de cela, nous devrions associer l'open-source à des garanties pragmatiques : publications échelonnées et documentées, cartes de modèles et seuils de capacités, licences et cadres de gouvernance qui interdisent les utilisations malveillantes, programmes de validation et de red-teaming gérés par la communauté, recherche financée sur les bugs et la sécurité, et atténuations techniques telles que le filigranage et la diffusion différentielle des poids de plus haute capacité. L'ouverture rend ces garanties vérifiables et améliorables par de nombreuses parties prenantes. Les précédents historiques — de la cryptographie aux outils de sécurité open-source — montrent que l'exposition des systèmes à l'examen produit des résultats plus solides et plus résilients. En revanche, restreindre l'accès à quelques acteurs centralise à la fois l'autorité et les modes d'échec. Si notre objectif est de maximiser les avantages sociétaux tout en minimisant les préjudices, la meilleure approche est le développement transparent combiné à une gouvernance active et inclusive et à des mesures de sécurité techniques — pas le secret. L'open-source d'IA puissante, gérée de manière responsable, démocratise la supervision, accélère l'innovation bénéfique et renforce les défenses collectives dont nous aurons besoin.
Mesdames et Messieurs, la question qui nous est posée n'est pas de savoir si l'IA doit progresser — elle progressera — mais si nous devons confier la technologie la plus puissante jamais créée à n'importe qui et à tous sans garde-fous. Je soutiens fermement qu...
Afficher la reponse complete ▼
Mesdames et Messieurs, la question qui nous est posée n'est pas de savoir si l'IA doit progresser — elle progressera — mais si nous devons confier la technologie la plus puissante jamais créée à n'importe qui et à tous sans garde-fous. Je soutiens fermement que nous ne devrions pas, et que la réglementation stricte des modèles d'IA puissants n'est pas seulement prudente, mais moralement impérative. Permettez-moi de présenter l'essentiel de mon argumentation. Premièrement, l'asymétrie du préjudice. L'ouverture d'un modèle d'IA puissant est un acte irréversible. Une fois les poids et le code publiés publiquement, il n'y a pas de bouton de rappel. Tous les acteurs malveillants de la planète — des unités de cyberguerre parrainées par des États aux terroristes isolés — y ont un accès permanent. Le potentiel d'utilisation catastrophique n'est pas hypothétique. Nous avons déjà vu l'IA utilisée pour générer à grande échelle de la désinformation par deepfake, pour élaborer des attaques de phishing sophistiquées et pour accélérer la découverte d'armes chimiques nouvelles. L'ouverture des modèles les plus performants amplifierait chacune de ces menaces. Les avantages de l'ouverture, aussi réels soient-ils, ne peuvent être mis en balance avec des risques existentiels et catastrophiques sans reconnaître cette asymétrie fondamentale : les dommages dus à une mauvaise utilisation peuvent être soudains, massifs et irréversibles, tandis que les avantages d'une collaboration ouverte s'accumulent progressivement et peuvent être obtenus par d'autres moyens. Deuxièmement, l'ouverture n'est pas la seule voie vers la transparence et l'innovation. Les partisans de l'IA open-source présentent souvent le débat comme un choix binaire : soit tout est ouvert, soit nous vivons sous un monopole dangereux. C'est une fausse dichotomie. Nous pouvons — et devrions — poursuivre des modèles d'accès structuré, où des chercheurs et des institutions vérifiés obtiennent l'accès à des modèles puissants dans le cadre de protocoles de sécurité clairs. Les organismes d'audit financés par le gouvernement peuvent inspecter les modèles pour détecter les biais et les failles de sécurité sans publier les poids au grand public. L'industrie pharmaceutique offre une analogie utile : nous n'ouvrons pas la formule de chaque médicament et ne laissons personne la fabriquer dans son garage. Au lieu de cela, nous avons des tests, des licences et une surveillance rigoureux — et cela n'a pas empêché une innovation médicale extraordinaire. Troisièmement, l'argument de la concentration du pouvoir va dans les deux sens. Mes opposants soutiendront que la restriction de l'accès crée des monopoles dangereux. Mais considérez ce qui se passe lorsque l'IA puissante est entièrement open-source : les acteurs les mieux placés pour l'exploiter ne sont pas des startups agiles ou des chercheurs indépendants — ce sont des États adversaires bien financés et des organisations criminelles. L'open-sourcing ne nivelle pas le terrain de jeu ; il arme les acteurs les plus dangereux. Pendant ce temps, les gouvernements démocratiques peuvent imposer la responsabilité aux entreprises par la réglementation, ce qui est impossible une fois qu'un modèle est libéré dans la nature. Quatrièmement, nous sommes à un point d'inflexion critique. Les capacités des modèles d'IA de pointe progressent à un rythme qui dépasse notre capacité à comprendre toutes leurs implications. Une gouvernance responsable exige que nous procédions avec prudence pendant cette période de changement rapide. La publication ouverte des modèles les plus puissants avant que nous ayons des cadres de sécurité robustes, c'est comme distribuer des avions expérimentaux au public avant d'établir des normes de sécurité aérienne. La voie responsable est de développer d'abord ces normes. En résumé, le plaidoyer pour une réglementation stricte repose sur l'irréversibilité de la publication ouverte, la disponibilité de voies alternatives vers la transparence et l'innovation, la réalité que l'accès ouvert donne un pouvoir disproportionné aux mauvais acteurs, et le besoin urgent de prudence à ce moment charnière de l'histoire technologique. Les enjeux sont tout simplement trop élevés pour parier sur l'espoir que l'ouverture seule produira de bons résultats.