# Querida Humanidad
> [!noteinfo]
> 17.03.2024 — Expo [[../../../Arte/Expos/Expo IA - Inteligencia Artificial al CCCB]] —
> [IA: Inteligencia artificial (CCCB)](https://www.cccb.org/es/exposiciones/ficha/ia-inteligencia-artificial/240941) #expo #ai
**Future Of Life Institute**
Jamestown, Irvine
CA, 95054
28 de julio de 2015
---
Querida Humanidad,
Las armas autónomas eligen y atacan objetivos sin la intervención de un ser humano. La inteligencia artificial (IA) ha alcanzado un punto en que el desarrollo de este tipo de sistemas es viable tanto en la práctica como desde la perspectiva legal en cuestión de años, no décadas, y los riesgos son altos: las armas autónomas han sido descritas como la tercera revolución en los conflictos bélicos, después de la pólvora y las armas nucleares.
Se han esgrimido muchos argumentos a favor y en contra de las armas autónomas. La cuestión clave para la humanidad a día de hoy es si empezar una carrera armamentista global con lA o, por el contrario, evitar que empiece. Si alguna de las principales potencias militares impulsa el desarrollo de armas de lA, la carrera armamentista global será prácticamente inevitable y su desenlace incuestionable: las armas autónomas serán los kalashnikovs de mañana. A diferencia de las armas nucleares, no necesitan materias primas costosas o difíciles de conseguir, así que serán omnipresentes y todas las potencias militares importantes podrán producirlas en masa a un coste muy asequible. Es solo cuestión de tiempo que empiecen a aparecer en el mercado negro y lleguen a manos de grupos terroristas, dictadores que quieran controlar a su población, señores de la guerra que quieran hacer limpiezas étnicas, etc. Las armas autónomas son perfectas para cometer asesinatos, desestabilizar a naciones, someter a la población y matar de manera selectiva a grupos étnicos concretos. Creemos que una carrera armamentista militar con lA no sería beneficiosa para la humanidad.
Del mismo modo que la mayoría de químicos y biólogos no tienen ningún interés en diseñar armas químicas o biológicas, la mayoría de los investigadores en el campo de la lA no tienen ningún interés en construir armas basadas en esta tecnología y no quieren que otros mancillen su disciplina haciéndolo.
En resumen, creemos que la lA tiene un gran potencial para beneficiar a la humanidad de formas muy diversas y que el objetivo tendría que ser lograrlo. Empezar una carrera armamentista militar con lA es una mala idea y habría que evitarlo mediante la prohibición de armas autónomas ofensivas que escapen a un control humano efectivo.
Atentamente,
Future Of Life Institute
#ai