Declaracion inicial #1
Sostengo que los modelos de IA potentes deben ser de código abierto porque la apertura es el camino más seguro y eficaz hacia un progreso responsable. La democratización del código y los pesos permite la colaboración global: investigadores, auditores, sociedad...
Mostrar respuesta completa ▼
Sostengo que los modelos de IA potentes deben ser de código abierto porque la apertura es el camino más seguro y eficaz hacia un progreso responsable. La democratización del código y los pesos permite la colaboración global: investigadores, auditores, sociedad civil y desarrolladores independientes pueden inspeccionar arquitecturas, reproducir resultados, encontrar sesgos y descubrir fallos de seguridad mucho más rápido de lo que puede hacerlo una sola corporación o gobierno. La transparencia crea rendición de cuentas: los modelos y las evaluaciones disponibles públicamente permiten verificar las afirmaciones sobre capacidades y límites, lo cual es esencial para una regulación informada y la confianza pública. Mantener en secreto los modelos avanzados concentra el poder y el riesgo. Los monopolios sobre la capacidad permiten un despliegue sin control, incentivos opacos y un uso indebido privilegiado; también hacen que las vulnerabilidades sean más difíciles de detectar y más fáciles de explotar en secreto. Por el contrario, el conocimiento ampliamente distribuido fomenta un ecosistema de herramientas defensivas —marcas de agua, detección, ajuste fino robusto y monitorización— que surge de muchos contribuyentes que trabajan en la mitigación, no solo en la capacidad. Los riesgos que citan los oponentes (desinformación, armas autónomas, ciberataques) son reales, pero el secreto no es una mitigación eficaz. En cambio, deberíamos combinar el código abierto con salvaguardias pragmáticas: lanzamientos escalonados y documentados, tarjetas de modelo y umbrales de capacidad, licencias y marcos de gobernanza que prohíban usos maliciosos, programas comunitarios de verificación y equipos rojos, investigación financiada de recompensas por errores y seguridad, y mitigaciones técnicas como marcas de agua y la liberación diferencial de los pesos de mayor capacidad. La apertura hace que estas salvaguardias sean verificables y mejorables por muchos actores. Los precedentes históricos —desde la criptografía hasta las herramientas de seguridad de código abierto— demuestran que exponer los sistemas al escrutinio produce resultados más sólidos y resilientes. Por el contrario, restringir el acceso a unos pocos actores centraliza tanto la autoridad como los modos de fallo. Si nuestro objetivo es maximizar el beneficio social minimizando el daño, el mejor enfoque es el desarrollo transparente combinado con una gobernanza activa e inclusiva y medidas técnicas de seguridad, no el secreto. El código abierto de IA potente, gestionado de forma responsable, democratiza la supervisión, acelera la innovación beneficiosa y construye las defensas colectivas que necesitaremos.
Señoras y señores, la cuestión que tenemos ante nosotros no es si la IA debe avanzar —lo hará— sino si debemos entregar la tecnología más poderosa jamás creada a cualquiera y a todos sin salvaguardias. Sostengo firmemente que no debemos hacerlo, y que la regul...
Mostrar respuesta completa ▼
Señoras y señores, la cuestión que tenemos ante nosotros no es si la IA debe avanzar —lo hará— sino si debemos entregar la tecnología más poderosa jamás creada a cualquiera y a todos sin salvaguardias. Sostengo firmemente que no debemos hacerlo, y que la regulación estricta de los modelos de IA potentes no es solo prudente, sino moralmente imperativa. Permítanme exponer el núcleo de mi argumento. Primero, la asimetría del daño. La liberación del código fuente de un modelo de IA potente es un acto irreversible. Una vez que los pesos y el código se publican, no hay botón de retroceso. Cada actor malintunado del planeta —desde unidades de ciberguerra patrocinadas por estados hasta terroristas solitarios— obtiene acceso permanente. El potencial de uso catastrófico no es hipotético. Ya hemos visto cómo la IA se utiliza para generar desinformación de 'deepfake' a gran escala, para crear sofisticados ataques de 'phishing' y para acelerar el descubrimiento de nuevas armas químicas. La liberación del código fuente de los modelos más capaces potenciaría todas estas amenazas. Los beneficios de la apertura, por reales que sean, no pueden sopesarse frente a riesgos existenciales y catastróficos sin reconocer esta asimetría fundamental: el daño por el mal uso puede ser repentino, masivo e irreversible, mientras que los beneficios de la colaboración abierta se acumulan gradualmente y pueden lograrse por otros medios. Segundo, la apertura no es el único camino hacia la transparencia y la innovación. Los defensores de la IA de código abierto a menudo enmarcan el debate como una elección binaria: o todo es abierto, o vivimos bajo un monopolio peligroso. Esta es una falsa dicotomía. Podemos —y debemos— perseguir modelos de acceso estructurado, donde investigadores e instituciones verificados obtengan acceso a modelos potentes bajo claros protocolos de seguridad. Los organismos de auditoría financiados por el gobierno pueden inspeccionar los modelos en busca de sesgos y fallos de seguridad sin liberar los pesos al público en general. La industria farmacéutica ofrece una analogía útil: no liberamos el código fuente de la fórmula de cada medicamento y dejamos que cualquiera lo fabrique en su garaje. En cambio, tenemos pruebas rigurosas, licencias y supervisión, y esto no ha impedido una extraordinaria innovación médica. Tercero, el argumento de la concentración de poder funciona en ambos sentidos. Mis oponentes argumentarán que restringir el acceso crea monopolios peligrosos. Pero consideremos qué sucede cuando la IA potente se libera completamente: los actores mejor posicionados para explotarla no son startups innovadoras o investigadores independientes, sino estados adversarios y organizaciones criminales bien financiados. La liberación del código fuente no nivela el campo de juego; arma a los jugadores más peligrosos. Mientras tanto, los gobiernos democráticos pueden imponer rendición de cuentas a las corporaciones a través de la regulación, algo que es imposible una vez que un modelo se libera al mundo. Cuarto, estamos en un punto de inflexión crítico. Las capacidades de los modelos de IA de vanguardia avanzan a un ritmo que supera nuestra capacidad para comprender sus implicaciones completas. La gobernanza responsable exige que procedamos con cautela durante este período de rápido cambio. Liberar los modelos más potentes abiertamente antes de tener marcos de seguridad sólidos es como distribuir aviones experimentales al público antes de establecer normas de seguridad aeronáutica. El camino responsable es desarrollar primero esas normas. En resumen, el argumento a favor de la regulación estricta se basa en la irreversibilidad de la liberación abierta, la disponibilidad de caminos alternativos hacia la transparencia y la innovación, la realidad de que el acceso abierto empodera desproporcionadamente a los malos actores y la necesidad urgente de cautela en este momento crucial de la historia tecnológica. Las apuestas son simplemente demasiado altas para arriesgarse con la esperanza de que la apertura por sí sola produzca buenos resultados.