Desafíos de Inteligencia Artificial en la Industria Militar

0
1026
Estrategia de EE.UU. se centrará en la Inteligencia Artificial
Estrategia de EE.UU. se centrará en la Inteligencia Artificial

Los expertos en inteligencia artificial sacudieron al mundo tecnológico este mes cuando pidieron que las naciones unidas regularan el uso de armas autónomas, algunos se atrevieron a ir más allá y solicitaron la prohibición total.

Los desafíos de la Inteligencia Artificial en la Industria MilitarLa atención rápidamente se centró en Elon Musk, que puso internet en llamas cuando twitteó: «si no estás preocupado por la seguridad de la IA (Inteligencia Artificial), deberías estarlo. Mayormente debido al riesgo que representa corea del norte. »

El grupo de 116 expertos de IA advirtió en una carta abierta a la convención de las naciones unidas sobre ciertas armas convencionales que «las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra». Hablando en nombre de compañías que hacen inteligencia artificial y sistemas robóticos que pueden ser reutilizados para desarrollar armas autónomas, escribieron, «nos sentimos especialmente responsables en levantar esta alarma».

La franca conversación de los líderes del mundo de la IA ha despertado la preocupación del mundo. Musk ha puesto a la IA en la categoría de amenaza existencial y exige una regulación decisiva e inmediata. Pero incluso algunos de los signatarios de la carta ahora dicen que Musk tomó el miedo de llegar lejos.

Aún no está claro el futuro de la IA en la Industria Militar

Lo que esto significa para el pentágono y sus esfuerzos masivos para combinar máquinas inteligentes en sistemas de armas aún no está claro. El ejército ve un futuro de sistemas de armas de alta tecnología impulsados ​​por inteligencia artificial y armas ubicuas y autónomas en el aire, en el mar, en tierra, así como en el ciberespacio.

Las Naciones Unidas han programado una reunión en noviembre para discutir las implicaciones de las armas autónomas. Se ha creado un grupo de expertos gubernamentales sobre «sistemas letales de armas autónomas». En la carta se pide al grupo que «se esfuerce por encontrar medios para prevenir una carrera de armamentos en estas armas, proteger a los civiles de su mal uso y evitar los efectos desestabilizadores de estas tecnologías «.

El fundador y CEO de la empresa de inteligencia artificial Sparkcognition, Amir Husain, firmó la carta, pero insiste en que está en contra de cualquier prohibición o restricción que sofocará el progreso y la innovación. Señaló que la campaña fue organizada por el profesor Toby Walsh, de la universidad de Nueva Gales Del Sur, en Australia, y tenía la intención de destacar «los peligros potenciales de las armas autónomas sin un debate internacional sobre estos temas».

Opiniones en contra de la prohibición

La industria quiere un sano debate sobre los beneficios y riesgos de la IA y la autonomía, dijo Amir en un comunicado. Pero una prohibición general es «inaplicable». El progreso científico es inevitable, «y para mí eso no es espantoso», añadió. «creo que la solución – tanto como existe en esta etapa – es redoblar nuestra inversión en el desarrollo de tecnologías inteligentes, inteligibles y transparentes de IA».

Wendy Anderson, gerente general del negocio de defensa de Sparkcognition, dijo que sugerir una prohibición o incluso restricciones estrictas en el desarrollo de cualquier tecnología es una «pendiente resbaladiza» y pondría a Estados Unidos en una desventaja competitiva, ya que otros países seguirán buscando la tecnología. «no podemos permitirnos quedarnos atrás», dijo Anderson. «prohibir o restringir su desarrollo no es la respuesta. Tener honesto, en profundidad las discusiones sobre cómo crear, desarrollar y desplegar la tecnología es «.

August Cole, investigador del consejo atlántico y escritor de la consultora Avascent, dijo que las preocupaciones de los líderes tecnológicos sobre las armas autónomas son válidas, pero una prohibición no es realista. «dada la proliferación de la máquina civil de aprendizaje y la autonomía avanza en todo, desde automóviles a las finanzas a las redes sociales, una prohibición no funcionará», dijo.

La imposición de límites a la tecnología en última instancia perjudicaría al ejército, que depende de las innovaciones comerciales, dijo Cole. «lo que hay que desarrollar es un marco legal, moral y ético internacional … Pero dada la velocidad incesante de los avances comerciales en IA, robótica y aprendizaje de máquinas, esto puede ser una orden más alta que pedir una prohibición absoluta de armas autónomas».

 

Pero, ¿Qué son las armas autónomas?

Mientras los avances en la tecnología comercial han beneficiado a los militares, los analistas temen que el pentágono no haya comprendido completamente los riesgos de la IAa sin restricciones y la posibilidad de que las máquinas puedan llegar a ser incontrolables.

«La IA no es sólo otra tecnología», dijo Andy Ilachinski, investigador principal del centro de análisis navales y autor del reciente estudio de la CNA, «IA, robots, and swarms: issues, questions, and recommended studies.” (IA, robots y enjambres: problemas, preguntas y estudios recomendados).

La defensa tiene que preocuparse por las implicaciones de este debate, dijo en una entrevista. La IA está transformando el mundo «al nivel de internet», dijo. «esta es una cultura que cambia la tecnología. Y el DOD es sólo una pequeña parte de eso. »

Otra realidad preocupante es que el pentágono todavía no se ha decidido por la definición de armas autónomas. En 2012, el departamento de defensa publicó un manual de instrucciones sobre el uso de armas autónomas. Ese documento de 5 años de antigüedad es la única política existente en los libros sobre cómo los militares estadounidenses utilizan estos sistemas, dijo Ilachinski. De acuerdo con ese manual, un arma es autónoma si «una vez activada, puede seleccionar y comprometer objetivos sin intervención de un ser humano».

Las políticas y las directivas son largamente esperadas para realizar una actualización, dijo. «Necesitamos saber de qué es capaz la IA, cómo probarlo y evaluarlo».

Señaló que la junta de ciencias de la defensa, un panel consultivo del pentágono, publicó dos estudios sobre el tema en 2012 y 2016, pero «no proporcionó una buena definición de autonomía e IA en ninguno de ellos». Estos son los principales expertos del pentágono y » ni siquiera lo entienden ellos.

Desafíos de la IA

Los desafíos de la Inteligencia Artificial en la Industria MilitarAlgo sobre la advertencia de Musk golpea un paralelo con los científicos que realmente entienden IA, observó Ilachinski. Cuando Deepmind de google creó un programa de computadora en 2015 que venció al campeón mundial de GO, fue un logro histórico para la IA, pero también llevó a la comprensión de que estos algoritmos realmente tienen mentes propias. «este es un tema de gran preocupación para el departamento de defensa».

Hay áreas dentro de la IA que los científicos todavía están tratando de entender. En sistemas avanzados como el Alphago de Deepmind, «no se puede hacer ingeniería inversa por qué se produjo un cierto comportamiento», dijo Ilachinski. «es importante que el departamento de defensa reconozca que no pueden entender completamente por qué el sistema está haciendo lo que está haciendo».

Una de las razones para tomar la advertencia de Musk en serio es que todavía se desconoce qué es lo que ocurre en el cerebro de estos sistemas con IA una vez entrenados, dijo Ilachinski. «puede que no sea capaz de predecir el comportamiento general del sistema», dijo. «así que en ese sentido comparto la angustia que la gente como Elon Musk.»

Por otra parte, es demasiado tarde para poner al genio en la botella, añadió Ilachinski. Estados unidos no se puede quedar atrás porque países como China ya están trabajando para convertirse en el poder dominante en la IA. Además, el pentágono tiene que preocuparse de que los enemigos exploten la IA de maneras que aún no se pueden imaginar. Cualquier persona puede comprar un par de drones por menos de mil dólares, ir al MIT o el sitio web de Harvard, aprender sobre la IA, descargar fragmentos de código e implantarlos en los drones, dijo. Un enjambre de UAVs inteligentes podrían representar dificultades en la seguridad y «tendría dificultades para contrarrestarlos porque no lo estamos esperando. Es muy barato y fácil de hacer. «

DEJA UNA RESPUESTA

¡Por Favor deje su comentario!
Por favor ingrese su nombre