Debate por las armas autónomas

0
378

Una reunión de las Naciones Unidas sobre letales armas autónomas terminó en decepción para los defensores que esperaban que el mundo progresara en la regulación o la prohibición de las tecnologías de «robots asesinos». El grupo de expertos gubernamentales de la ONU apenas si arañaron la superficie de definir lo que cuenta como un arma letal autónoma. Pero en lugar de tratar de crear una definición de robots asesinos, es posible que tengan más suerte la próxima vez que se centren en el papel de los humanos en el control de tales armas autónomas.

Esa idea de centrarse en el papel de los seres humanos en la guerra ha sido respaldada por varios expertos y organizaciones no gubernamentales, como la Cruz Roja Internacional. Sería poner de relieve las responsabilidades legales y morales de los soldados y oficiales que podrían coordinar enjambres de drones militares o emitir órdenes a un pelotón de tanques robóticos en el futuro cercano. Y evita las trampas que rodean el desafío de tratar de definir las armas letales autónomas cuando la inteligencia artificial y las tecnologías de robots continúan evolucionando mucho más rápido que los engranajes de lento avance de un organismo de la ONU que se reúne una sola vez al año.

«Una de las críticas que las personas han hecho, y con razón, es que si usted establece una prohibición sobre el estado de la tecnología hoy, podría estar equivocado sobre la tecnología en el futuro cercano», dice Paul Scharre, director del Programa de Tecnología y Seguridad Nacional. en el Centro para una Nueva Seguridad Estadounidense (CNAS) y autor del próximo libro «Army of None», que se publicará en la primavera de 2018. «En esta área de letales armas autónomas, es posible que esté muy equivocado».

Otros usos de la Inteligencia Artificial

Un ejemplo no militar de la rapidez con que la tecnología de IA supera las discusiones regulatorias proviene del caso del programa AlphaGo de DeepMind Lab.

En la primera mitad de 2016, AlphaGo desafió las predicciones de expertos de hace unos años al derrotar a los mejores jugadores humanos en el antiguo juego de mesa de Go. En 2017, DeepMind lanzó una versión mejorada de AlphaGo, llamada AlphaZero, que aprendió a jugar al ajedrez en cuatro horas y procedió a vencer a los mejores programas informáticos especializados en ajedrez.

Durante ese mismo período de asombroso progreso en IA, la comunidad internacional logró muy poco a pesar de haber convocado varias reuniones de la ONU sobre armas letales autónomas. La última reunión de la ONU celebrada en noviembre de 2017, la participación del Grupo de Expertos Gubernamentales en Armas Letales Autónomas Sistemas-tenido pocos logros, aparte de exigir a reunirse de nuevo durante 10 días en 2018 y se preparan para hacerlo todo de nuevo.

DEJA UNA RESPUESTA

¡Por Favor deje su comentario!
Por favor ingrese su nombre