Un mundo donde los algoritmos decidan el destino de soldados y civiles ya no es solo una posibilidad futurista. La utilización de drones basados en inteligencia artificial está revolucionando la forma en que se libra la guerra, generando serias inquietudes éticas sobre la autonomía en el campo de batalla. A medida que los legisladores internacionales corren para establecer normas, una intensa competencia por dominar esta tecnología avanza a pasos agigantados.
Diariamente, los individuos proporcionan datos personales a las máquinas, aceptando cookies o utilizando motores de búsqueda, sin reflexionar sobre cómo esta información se utiliza para manipular sus decisiones como consumidores. Sin embargo, la pregunta fundamental es: ¿qué ocurriría si esas máquinas decidieran a quién atacar como enemigos que deben ser eliminados? Tanto la ONU como diversas organizaciones no gubernamentales están alarmadas ante la posibilidad de que esto se convierta en una realidad y exigen una regulación internacional de las Armas Letales Autónomas (LAWS) para evitar un futuro donde estas máquinas tengan el poder de tomar decisiones sobre vidas humanas.
La situación se agrava con la creciente “deshumanización digital” que el uso de drones y armas autónomas conlleva, traduciéndose en una nueva forma de guerra que despierta la preocupación sobre los llamados «robots asesinos». Izumi Nakamitsu, directora de la Oficina de Asuntos de Desarme de la ONU, enfatiza que ceder a la delegación total de decisiones que involucren la vida humana es moralmente inaceptable y debería ser prohibido por el derecho internacional. Organizaciones como Human Rights Watch alertan sobre el impacto de esta tendencia, que no solo afecta el ámbito militar, sino que también está presente en la vigilancia policial y el control fronterizo.
Mary Wareham, de Human Rights Watch, señala que varios países, especialmente Estados Unidos, están invirtiendo recursos significativos en el desarrollo de sistemas de armas autónomas, que continúan siendo una fuente de preocupación global. Los defensores de esta tecnología argumentan que las máquinas pueden superar las limitaciones humanas, evitando errores de juicio o decisiones impulsivas. Sin embargo, esta perspectiva ignora las objeciones sobre la infalibilidad de la tecnología y sus implicaciones éticas, según las cuales es fácil que los sistemas confundan un objetivo humano, lo que podría resultar en situaciones catastróficas.
Además, la dificultada para atribuir responsabilidades por crímenes de guerra en el caso de que estas armas sean empleadas también es motivo de gran preocupación. Nicole Van Rooijen, de la coalición Stop Killer Robots, plantea la interrogante sobre quién debería ser responsable: el fabricante o el programador del algoritmo. Las carencias éticas y morales respecto al uso de estas máquinas en conflictos bélicos son cada vez más evidentes.
La urgencia por establecer regulaciones internacionales es apremiante. En conversaciones recientes en la sede de la ONU, se ha instado a los Estados miembros a llegar a un acuerdo para regular y prohibir esta tecnología para 2026. Aunque se han realizado intentos previos desde 2014 para abordar este problema, aún existe una falta de consenso sobre la definición y la regulación de las armas autónomas.
No obstante, hay signos de esperanza. Más de 120 países han mostrado apoyo para negociar una nueva ley internacional que limite el uso de sistemas de armas autónomas. Existe un creciente consenso sobre la necesidad de prohibir las armas totalmente autónomas, ya que, en la guerra, es fundamental que haya un responsable por los actos cometidos. La comunidad internacional parece avanzar lentamente hacia un entendimiento común, aunque aún queda un largo camino por recorrer.
Fuente: ONU últimas noticias