El elemento humano crítico en la era de la guerra de la máquina

0
352

En 1983, Stanislav Petrov ayudó a prevenir el estallido accidental de la guerra nuclear al reconocer que una falsa alarma en los sistemas de alerta temprana soviéticos no era un informe real de un ataque inminente de los EE. UU.

A medida que los ejércitos avanzan hacia la introducción de inteligencia artificial en vigilancia y reconocimiento, e incluso sistemas de comando, la decisión de Petrov debería servir como un potente recordatorio de los riesgos de confiar en sistemas complejos en los que los errores y las disfunciones no son solo probable, pero probablemente inevitable.

La introducción de algoritmos para procesar datos a gran velocidad y escala podría permitir una ventaja crítica en la toma de decisiones de inteligencia y comando. En consecuencia, el ejército de los EE. UU. busca acelerar su integración de big data y aprendizaje automático a través del Proyecto Maven, y el ejército chino busca investigación y desarrollo que aprovechen estas tecnologías para permitir la fusión automatizada de datos e información, mejorar el análisis de inteligencia y apoyar la toma de decisiones.

Confianza absoluta en las máquinas

Hasta la fecha, tales aplicaciones militares de Inteligencia Artificial han provocado menos debate y preocupación sobre las capacidades actuales que los temores de «robots asesinos» que aún no existen. Pero a pesar de que los «Terminators» no están en el futuro inmediato, la tendencia hacia una mayor dependencia de los sistemas de Inteligencia Artificial podría no obstante generar riesgos de errores de cálculo causados ​​por errores técnicos. Aunque el caso de Petrov ilustra el problema in extremis, también ofrece una lección general sobre la importancia de la toma de decisiones humanas en la era de la guerra de las máquinas.

Está claro que no basta simplemente con tener a un ser humano «en el circuito», ya que la introducción de mayores grados de automatización tiende a tener un impacto adverso en la toma de decisiones humanas. En la situación de Petrov, es probable que otro funcionario haya confiado en el sistema de alerta temprana y haya informado sobre un inminente ataque nuclear estadounidense en la cadena de mando. Solo la voluntad de Petrov de cuestionar el sistema, basado en su entendimiento de que un ataque real de los EE. UU. no involucraría solo unos pocos misiles, sino una catástrofe masiva evitada por fusilamientos ese día.

Hoy, sin embargo, el humano en cuestión podría estar considerablemente menos dispuesto a cuestionar la máquina. La conocida tendencia humana hacia una mayor dependencia de las recomendaciones generadas por computadora o automatizadas a partir de sistemas inteligentes de soporte de decisiones puede resultar en una toma de decisiones comprometida. Este dinámico, conocido como sesgo de automatización o la dependencia excesiva en la automatización que resulta en complacencia, puede llegar a ser más generalizado, ya que los humanos se acostumbran a depender cada vez más del juicio algorítmico en la vida cotidiana.

DEJA UNA RESPUESTA

¡Por Favor deje su comentario!
Por favor ingrese su nombre