Google se retira del proyecto militar de inteligencia artificial

0
212

Los trabajadores de Google informaron el viernes que el titán de Internet se retiraría de un acuerdo para ayudar al ejército de los EE. UU. a utilizar la inteligencia artificial para analizar el video de aviones no tripulados luego de una protesta del personal, según los informes.

Se dijo que la colaboración con el Departamento de Defensa de los Estados Unidos provocó una rebelión dentro de la compañía con sede en California.

Una petición interna que pedía a Google que se mantuviera fuera del «negocio de la guerra» obtuvo miles de firmas, y algunos trabajadores renunciaron para protestar contra una colaboración con el ejército.

El sitio web de noticias tecnológicas y del New York Times, Gizmodo, citó fuentes anónimas diciendo que un ejecutivo del equipo en la nube de Google dijo a los empleados el viernes que la compañía no buscaría renovar el controvertido contrato una vez que expire el próximo año.

Más ganancias para el ejército

Se informó que el contrato valía menos de $ 10 millones para Google, pero se pensó que tenía potencial para llevar a colaboraciones tecnológicas más lucrativas con el ejército.

Google no respondió a una solicitud de comentarios.

Google se ha mantenido obsesionado con Project Maven, que según los informes utiliza el talento de la ingeniería y el aprendizaje automático para distinguir personas y objetos en videos de drones para el Departamento de Defensa.

«Creemos que Google no debería estar en el negocio de la guerra», dice la petición del empleado, según las copias publicadas en línea.

«Por lo tanto, pedimos que se cancele el Proyecto Maven, y que Google redacte, publicite y haga cumplir una política clara que establezca que ni Google ni sus contratistas construirán nunca una tecnología de guerra».

La Electronic Frontier Foundation, un grupo de derechos de Internet, y el Comité Internacional para el Control de Armas de Robot (ICRAC) fueron algunos de los que han colaborado con el apoyo.

«A medida que los comandantes militares vean que los algoritmos de reconocimiento de objetos son confiables, será tentador atenuar o incluso eliminar la revisión y supervisión humana de estos sistemas», dijo ICRAC en una carta abierta.

«Estamos a solo un paso de autorizar el uso de drones autónomos para matar automáticamente, sin supervisión humana o control humano significativo».

Google ha dejado constancia de que su trabajo para mejorar la capacidad de las máquinas para reconocer objetos no es para usos ofensivos.

La EFF y otros destacaron la necesidad de marcos morales y éticos con respecto al uso de la inteligencia artificial en el armamento.

«El uso de la IA en los sistemas de armas es un tema crucialmente importante y merece una discusión pública internacional y probablemente algunos acuerdos internacionales para garantizar la seguridad global», dijo la EFF en una publicación de blog sobre el tema.

DEJA UNA RESPUESTA

¡Por Favor deje su comentario!
Por favor ingrese su nombre