Google prepara principios éticos en la elaboración de IA para Pentágono

0
184

Google está elaborando un conjunto de directrices que orientarán su participación en el desarrollo de herramientas de IA para los militares, según un informe de The New York Times. Lo que estas pautas estipularán exactamente no está claro, pero Google dice que incluirán una prohibición sobre el uso de la inteligencia artificial en el armamento. Son una respuesta a la controversia sobre la decisión de la compañía de desarrollar herramientas de inteligencia artificial para el Pentágono que analizan imágenes de vigilancia de drones.

Aunque las compañías tecnológicas suelen presentar ofertas para contratos en el sector de defensa de los EE. UU., la participación de Google (una empresa que una vez se jactó del lema «no seas malo») y la tecnología de Inteligencia Artificial de última generación ha llamado la atención, tanto dentro como fuera de la empresa.

Los correos electrónicos internos obtenidos por el Times muestran que Google estaba al tanto del malestar que esta noticia podría causar.  Pero Google nunca terminó haciendo el anuncio, y desde entonces ha estado a la defensiva defendiendo su decisión. La compañía dice que la tecnología que está ayudando a construir para el Pentágono simplemente «señala imágenes para su revisión humana» y es para «usos no ofensivos solamente». El contrato también es pequeño según los estándares de la industria, con un valor de solo $ 9 millones para Google, según el Veces.

El Debate

Pero este contexto adicional no ha sofocado el debate en la empresa, con empleados de Google que argumentan los pros y los contras de la inteligencia militar en reuniones y foros de mensajes internos. Muchos investigadores prominentes de la compañía ya se han manifestado en contra del uso de armas de IA.

Pero la pregunta que enfrentan estos empleados (y Google mismo) es: ¿dónde trazas la línea? ¿El uso de la máquina de aprendizaje para analizar imágenes de vigilancia para el recuento militar como «IA armada»? Probablemente no. Pero, ¿y si ese análisis informa las decisiones futuras sobre los ataques con drones? ¿Importa entonces? ¿Cómo sabría Google siquiera si esto hubiera sucedido?

Estas son preguntas difíciles, y probablemente sean imposibles de responder de una manera que satisfaga a todas las partes. Al comprometerse a elaborar directrices, Google se ha propuesto una tarea difícil.

DEJA UNA RESPUESTA

¡Por Favor deje su comentario!
Por favor ingrese su nombre