En el 2018, más de 4,600 empleados de Google firmaron una petición instando a la compañía a comprometerse a negarse a construir tecnología de armas. Como respuesta al trabajo de Google con los militares en un sistema de ataque basado en inteligencia artificial, la petición hizo una declaración moral poderosa y aparentemente simple: "Creemos que Google no debería estar en el negocio de la guerra".
Del mismo modo, los empleados de Microsoft en febrero del pasado año, exigieron que su compañía retenga su tecnología de auriculares HoloLens de realidad aumentada del Ejército, diciendo que no quieren convertirse en "especuladores de guerra".
El desarrollo tecnológico se ha convertido en una carrera de ratas. En la competencia para liderar los avances tecnológicos emergentes y el campo de batalla de la guerra futurista, la inteligencia artificial (IA) está tomando un rol protagónico, rápidamente en el centro del juego del poder global. Como se ve en muchas naciones, el desarrollo en el sistema de armas autónomas (SAA), está progresando rápidamente, y este aumento en la fabricación de armas de IA, parece haberse convertido en un desarrollo altamente desestabilizador. Trae desafíos de seguridad complejos no solo para los tomadores de decisiones de cada país, sino también para el futuro de la humanidad.
La realidad actual es que la IA, nos está llevando a un nuevo campo de batalla de guerra algorítmica que no tiene límites ni fronteras, puede o no tener humanos involucrados, y será imposible de entender y quizás controlar a través del ecosistema humano en el ciberespacio, el geoespacio y espacio.
Como resultado, la idea misma de la armamentización de la IA, de una máquina inteligente o inteligencia de máquina para tener la capacidad de realizar cualquier tarea de guerra proyectada sin ninguna participación e intervención humana, utilizando solo la interacción de sus sensores integrados y programación de computadoras, ya es preocupante y se ha convertido en una realidad que no podemos ignorar. Y tiene sentido, cuando científicos como Stephen Hawking y el cofundador de Apple, Steve Wozniak, pidieron cada uno en su momento, la prohibición del uso de la IA para armas ofensivas autónomas, agregándose a estos, muchos otros especialistas en el área, quienes expresaron estas mismas preocupaciones. Pero, ¿y si la carrera ya ha comenzado?
A principios del siglo XX, se hicieron intentos para prohibir submarinos y aviones, debido a su poder destructivo, pero esto no impidió su distribución. Incluso la prohibición de armas químicas es constantemente violada por regímenes deshonestos. ¿Y quién les impide trabajar en robots asesinos? Hasta el momento, ningún país ha revelado públicamente sus desarrollos en el campo de las armas autónomas, pero quien suscribe, confía en que el asunto está más avanzado de lo que cualquier país, ha revelado.
Hasta ahora, para una decisión final en el campo de batalla, los robots de combate requieren un equipo humano, pero los militares pueden delegar su autoridad en armas autónomas, basada en IA, por ejemplo, en condiciones de pérdida de comunicación con el comando durante la lucha. Además, las computadoras evalúan rápidamente la situación y responden.
Por un lado, la IA puede ayudar a minimizar las bajas humanas, aumentar la precisión de los ataques, lo que ayudará a evitar pérdidas entre la población civil. Sin embargo, su mal uso de los intereses de los civiles simplemente no se tendrá en cuenta de la máquina. Además, si varios países practican un enfoque sensato al uso de IA en las guerras, esto no significa que otros seguirán su ejemplo. De una forma u otra, el autor de este escrito, cree que el uso de armas basadas en IA (armas autónomas) es inevitable, la pregunta principal es cómo se usará y quién controlará a quién.