Abertura #1
Defendo que modelos de IA poderosos devem ser de código aberto porque a abertura é o caminho mais seguro e eficaz para o progresso responsável. Democratizar o código e os pesos permite a colaboração global: pesquisadores, auditores, sociedade civil e desenvolv...
Mostrar resposta completa ▼
Defendo que modelos de IA poderosos devem ser de código aberto porque a abertura é o caminho mais seguro e eficaz para o progresso responsável. Democratizar o código e os pesos permite a colaboração global: pesquisadores, auditores, sociedade civil e desenvolvedores independentes podem inspecionar arquiteturas, reproduzir resultados, encontrar vieses e descobrir falhas de segurança muito mais rapidamente do que qualquer corporação ou governo individual. A transparência cria responsabilidade — modelos e avaliações publicamente disponíveis tornam possível verificar alegações sobre capacidades e limites, o que é essencial para uma regulamentação informada e a confiança pública. Manter modelos avançados em segredo concentra poder e risco. Monopólios sobre a capacidade permitem a implantação sem controle, incentivos opacos e uso indevido privilegiado; eles também tornam as vulnerabilidades mais difíceis de detectar e mais fáceis de explorar em segredo. Em contraste, o conhecimento amplamente distribuído fomenta um ecossistema de ferramentas defensivas — marca d'água, detecção, ajuste fino robusto e monitoramento — que surge de muitos contribuidores trabalhando na mitigação, não apenas na capacidade. Os riscos citados pelos oponentes (desinformação, armas autônomas, ciberataques) são reais, mas o sigilo não é uma mitigação eficaz. Em vez disso, devemos combinar o código aberto com salvaguardas pragmáticas: lançamentos graduais e documentados, cartões de modelo e limiares de capacidade, licenças e estruturas de governança que proíbam usos maliciosos, programas de verificação e equipes vermelhas administrados pela comunidade, pesquisa financiada de caça a bugs e segurança, e mitigações técnicas como marca d'água e liberação diferencial dos pesos de maior capacidade. A abertura torna essas salvaguardas verificáveis e melhoráveis por muitos stakeholders. Precedentes históricos — desde a criptografia até ferramentas de segurança de código aberto — mostram que expor sistemas ao escrutínio produz resultados mais fortes e resilientes. Em contraste, restringir o acesso a poucos atores centraliza tanto a autoridade quanto os modos de falha. Se o nosso objetivo é maximizar o benefício social enquanto minimizamos os danos, a melhor abordagem é o desenvolvimento transparente combinado com governança ativa e inclusiva e medidas de segurança técnica — não o sigilo. Tornar poderosos modelos de IA de código aberto, geridos de forma responsável, democratiza a supervisão, acelera a inovação benéfica e constrói as defesas coletivas de que precisaremos.
Senhoras e senhores, a questão que se apresenta não é se a IA avançará — ela avançará — mas se devemos entregar a tecnologia mais poderosa já criada a quem quer que seja, sem salvaguardas. Defendo firmemente que não devemos, e que a regulamentação rigorosa de...
Mostrar resposta completa ▼
Senhoras e senhores, a questão que se apresenta não é se a IA avançará — ela avançará — mas se devemos entregar a tecnologia mais poderosa já criada a quem quer que seja, sem salvaguardas. Defendo firmemente que não devemos, e que a regulamentação rigorosa de modelos de IA poderosos não é apenas prudente, mas moralmente imperativa. Permitam-me expor o cerne do meu argumento. Primeiro, a assimetria do dano. A disponibilização pública de um modelo de IA poderoso é um ato irreversível. Uma vez que os pesos e o código são divulgados publicamente, não há botão de retrocesso. Todos os atores mal-intencionados do planeta — desde unidades de guerra cibernética patrocinadas por estados até terroristas solitários — ganham acesso permanente. O potencial de uso indevido catastrófico não é hipotético. Já vimos a IA ser usada para gerar desinformação em deepfake em escala, para criar ataques de phishing sofisticados e para acelerar a descoberta de novas armas químicas. A disponibilização pública dos modelos mais capazes potencializaria todas essas ameaças. Os benefícios da abertura, por mais reais que sejam, não podem ser ponderados contra riscos existenciais e catastróficos sem reconhecer essa assimetria fundamental: o dano do uso indevido pode ser súbito, massivo e irreversível, enquanto os benefícios da colaboração aberta acumulam-se gradualmente e podem ser alcançados por outros meios. Segundo, a abertura não é o único caminho para a transparência e a inovação. Os defensores da IA de código aberto frequentemente enquadram o debate como um binário: ou tudo é aberto, ou vivemos sob um monopólio perigoso. Esta é uma falsa dicotomia. Podemos — e devemos — buscar modelos de acesso estruturado, onde pesquisadores e instituições verificados obtenham acesso a modelos poderosos sob claros protocolos de segurança. Órgãos de auditoria financiados pelo governo podem inspecionar modelos quanto a vieses e falhas de segurança sem divulgar os pesos ao público em geral. A indústria farmacêutica oferece uma analogia útil: não divulgamos publicamente a fórmula de cada medicamento e deixamos que qualquer um o fabrique em sua garagem. Em vez disso, temos testes rigorosos, licenciamento e supervisão — e isso não impediu uma extraordinária inovação médica. Terceiro, o argumento da concentração de poder funciona nos dois sentidos. Meus oponentes argumentarão que restringir o acesso cria monopólios perigosos. Mas considerem o que acontece quando a IA poderosa é totalmente disponibilizada publicamente: os atores mais bem posicionados para explorá-la não são startups ágeis ou pesquisadores independentes — são estados adversários e organizações criminosas bem-resourced. A disponibilização pública não nivela o campo de jogo; ela arma os jogadores mais perigosos. Enquanto isso, governos democráticos podem impor responsabilidade às corporações por meio de regulamentação, algo que é impossível uma vez que um modelo é liberado no mundo. Quarto, estamos em um ponto de inflexão crítico. As capacidades dos modelos de IA de ponta estão avançando a um ritmo que supera nossa capacidade de compreender suas implicações completas. A governança responsável exige que procedamos com cautela durante este período de rápida mudança. Liberar os modelos mais poderosos abertamente antes de termos estruturas de segurança robustas é como distribuir aeronaves experimentais ao público antes de estabelecer padrões de segurança aeronáutica. O caminho responsável é desenvolver esses padrões primeiro. Em resumo, o argumento para a regulamentação rigorosa baseia-se na irreversibilidade da liberação pública, na disponibilidade de caminhos alternativos para a transparência e a inovação, na realidade de que o acesso aberto capacita desproporcionalmente maus atores e na necessidade urgente de cautela neste momento crucial da história tecnológica. As apostas são simplesmente altas demais para arriscar na esperança de que a abertura por si só produza bons resultados.