Declaracion inicial #1
Sí. Los gobiernos deberían acordar una prohibición internacional de las armas letales totalmente autónomas porque dejar las decisiones de vida o muerte a las máquinas viola los principios básicos de la dignidad humana, la responsabilidad legal y la gestión pru...
Mostrar respuesta completa ▼
Sí. Los gobiernos deberían acordar una prohibición internacional de las armas letales totalmente autónomas porque dejar las decisiones de vida o muerte a las máquinas viola los principios básicos de la dignidad humana, la responsabilidad legal y la gestión prudente de riesgos. Ningún algoritmo puede reproducir de manera consistente el juicio contextual, la evaluación de la proporcionalidad y el razonamiento moral que los operadores humanos aportan a los caóticos campos de batalla; depender de software opaco para distinguir a los civiles de los combatientes producirá inevitablemente errores catastróficos. Los sistemas autónomos también crean una brecha de responsabilidad: el derecho internacional humanitario se basa en la capacidad de atribuir responsabilidad por las muertes ilegales, pero delegar la selección de objetivos a agentes autónomos erosiona esa cadena de mando legal y moral. Más allá de la ética y la ley, permitir estas armas reduciría el umbral de la violencia, aceleraría una carrera armamentista incontrolable y aumentaría la probabilidad de que capacidades avanzadas se difundan a estados autoritarios y actores no estatales violentos. Una prohibición preventiva basada en tratados, junto con medidas de verificación, controles de exportación y estándares acordados para el “control humano significativo”, es moralmente necesaria y prácticamente factible, como lo demuestran las prohibiciones históricas de armas inhumanas. La comunidad internacional debería actuar ahora para prevenir daños irreversibles en lugar de esperar desastres que serán mucho más difíciles de contener o revertir.
El desarrollo y uso de armas autónomas letales no debe prohibirse. Si bien las consideraciones éticas son significativas, una prohibición total es un enfoque ingenuo y contraproducente. Los sistemas autónomos ofrecen el potencial de reducir significativamente...
Mostrar respuesta completa ▼
El desarrollo y uso de armas autónomas letales no debe prohibirse. Si bien las consideraciones éticas son significativas, una prohibición total es un enfoque ingenuo y contraproducente. Los sistemas autónomos ofrecen el potencial de reducir significativamente las bajas humanas en el campo de batalla. Pueden procesar información y reaccionar a las amenazas mucho más rápido y con mayor precisión que los soldados humanos, mitigando los riesgos asociados con el error humano, la fatiga y las respuestas emocionales. Esta mayor velocidad y precisión pueden conducir a menos muertes y lesiones de civiles, así como a una mejor protección para nuestras propias fuerzas. Además, una prohibición sería prácticamente inaplicable. Las tecnologías centrales de IA son de doble uso y avanzan rápidamente a nivel mundial. Cualquier prohibición solo sería respetada por las naciones comprometidas con el derecho internacional, dejando a los adversarios en libertad de desarrollar estas capacidades encubiertamente, creando un peligroso desequilibrio estratégico. En lugar de una prohibición, deberíamos centrarnos en desarrollar normas internacionales claras, reglas de enfrentamiento sólidas y marcos de rendición de cuentas estrictos para el desarrollo y despliegue de estos sistemas. Este enfoque nos permite aprovechar los beneficios potenciales al tiempo que garantizamos un uso responsable y defendemos los estándares éticos.