Reflexiones sobre la toma de decisiones en la era de la Inteligencia Artificial: el caso de Stanislav Petrov.

Autores:

Tcrn EMT. Avc Víctor Xavier Enríquez Champutiz

Tcrn EMT. Avc. (SP) Gerardo Benavides Montenegro

En el panorama actual, nos encontramos ante una convergencia de peligros latentes, incluyendo la amenaza de un posible ataque nuclear y el avance tecnológico sin precedentes, especialmente en la evolución de la inteligencia artificial (IA).

La IA ha experimentado un crecimiento exponencial en las últimas décadas, dotándola de la habilidad para ejecutar labores previamente reservadas al intelecto humano. Este avance posee el potencial de reconfigurar la dinámica bélica al automatizar procesos, perfeccionar la exactitud y hasta tomar decisiones en tiempo real. Sin embargo, esta capacidad también suscita inquietudes acerca de su función en un eventual conflicto global, con la posibilidad de una Tercera Guerra Mundial. Queda latente que, en situaciones críticas, el acto de decidir sigue siendo un dominio donde la intervención humana resulta vital.

El caso del teniente coronel Stanislav Petrov (1939-2017) ejemplifica el imperativo de la toma de decisiones humanas ante la presencia de la IA.

En el contexto de la Guerra Fría, el 26 de septiembre de 1983, el sistema de alerta temprana soviético «Oko» detectó CINCO misiles balísticos intercontinentales lanzados desde Estados Unidos. Petrov, encargado en turno en el centro de control Serpukhov-15, tenía la responsabilidad de verificar e informar sobre cualquier ataque nuclear. Enfrentado a una encrucijada, debía optar entre comunicar un inminente ataque y desencadenar una potencial conflagración nuclear, o considerar la posibilidad de una falsa alarma.

A diferencia de un sistema de IA que habría seguido el protocolo y reportado el ataque, Stanislav Petrov analizó la situación con calma y discernimiento. Su experiencia y conocimiento le permitieron detectar anomalías en los datos, concluyendo que se trataba de una falsa alarma, posiblemente causada por una anomalía en el sistema. Su decisión fue crucial, ya que una respuesta soviética precipitada podría haber desencadenado una guerra nuclear.

En contraste con un sistema de IA, que habría seguido un protocolo rígido y reportado el supuesto ataque, Stanislav Petrov examinó la situación con serenidad y discernimiento. Su pericia y sapiencia le permitieron discernir anomalías en los datos, concluyendo que se trataba de una falsa alarma, probablemente causada por una irregularidad en el sistema. Su decisión resultó decisiva, puesto que una reacción precipitada por parte de la Unión Soviética podría haber desencadenado una guerra nuclear.

Posteriormente, se confirmó el buen juicio en la decisión de Petrov. No obstante, no recibió reconocimiento inmediato por su acción heroica. De hecho, fue reprendido por sus superiores por no adherirse al protocolo establecido. Fue solo años después, con la desintegración de la Unión Soviética, que la hazaña de Petrov fue revelada al público.

Petrov recibió diversos galardones internacionales por su acto heroico, incluyendo el Premio Dresden de la Paz en 2013.

Este episodio histórico evidencia que existen decisiones que conciernen exclusivamente al ser humano, quien posee la capacidad de realizar un análisis crítico, intuir, acumular experiencia y seguir valores, cualidades que exceden las limitaciones de la IA en la toma de decisiones; éstas abarcan la falta de contexto y comprensión, los sesgos inherentes en los datos, y la carencia de un sentido ético y de responsabilidad.

El caso del teniente coronel Stanislav Petrov ilustra que la toma de decisiones humanas sigue siendo imperativa en circunstancias cruciales. Si bien la IA puede constituir una herramienta valiosa para el análisis de datos y la toma de decisiones, no debe suplantar el juicio humano. La combinación entre la capacidad analítica de la IA y el discernimiento humano emerge como el método óptimo para garantizar decisiones responsables y éticas.

Documental en Netflix https://www.netflix.com/us-es/title/81473681

En el ámbito de la seguridad y defensa, bien convendrían implementar algunas estrategias para optimizar el uso de la IA, preservando la racionalidad humana como elemento central. Así, los sistemas de IA deberían ser diseñados para operar bajo la atenta supervisión de expertos humanos, quienes, a través de entrenamientos y simulaciones avanzadas, estarían preparados para intervenir y tomar decisiones críticas en situaciones de alta tensión.

Los autores consideramos que, independientemente del nivel de avance tecnológico, resulta imperativo que las decisiones finales recaigan en “humanos con capacidad de discernimiento” y que cuenten con una comprensión integral del contexto. Estas personas deben adherirse a valores humanos fundamentales y ser respetuosos de leyes y tratados internacionales, aunque manteniéndose al margen de influencias políticas.

«La racionalidad debe prevalecer sobre la política, ya que lo irracional a menudo tiene raíces políticas«.

Los autores

Por lo tanto, consideramos esencial establecer protocolos rigurosos que garanticen que las acciones llevadas a cabo por sistemas autónomos sean responsables y puedan justificarse éticamente en el futuro, gracias a su inherente transparencia y alineación con principios éticos universales.

En los recientes episodios de tensión entre Israel y Palestina, que han extendido su alcance a naciones como Irán, algunos analistas han advertido sobre el potencial desencadenamiento de un conflicto global. Consideramos que, por el contrario, la IA podría emerger como una herramienta prometedora para la prevención de conflictos. Numerosos países ya están implementando aplicaciones de IA en el ámbito de la seguridad y defensa. Por ejemplo, en la detección de amenazas cibernéticas, la IA se encarga de analizar patrones de tráfico de red para identificar posibles incursiones. En tareas de vigilancia y reconocimiento, la IA potencia la capacidad de drones y satélites para mejorar la detección y seguimiento de objetivos. Además, la IA es capaz de procesar ingentes cantidades de datos para destilar información crítica en el análisis de inteligencia. Los sistemas autónomos también juegan un papel vital en misiones de reconocimiento y neutralización de explosivos, reduciendo significativamente los riesgos para el personal.

Sin embargo, insistimos que resulta vital que la implementación de la IA esté estrictamente regulada y supervisada para prevenir errores. La sinergia entre la capacidad analítica de la IA y el discernimiento humano representa el enfoque más seguro y efectivo para asegurar decisiones responsables y éticas en el panorama de la seguridad y defensa internacional.

A propósito, el libro “The Future of War: A History of Conflict from the Bronze Age to the Nuclear Age” de Lawrence Freedman proporciona una perspectiva profunda sobre la evolución del conflicto bélico y las predicciones sobre la guerra.

Freedman, reconocido pensador militar, cuestiona las afirmaciones de los futuristas militares y destaca cómo a menudo han estado equivocados, ya que las visiones idealizadas de la guerra como un evento confinado, breve y decisivo son engañosas. En su lugar, señala la persistencia de guerras prolongadas y la necesidad de considerar esta posibilidad al momento de planificar la defensa y la estrategia militar.

Fuente CNN / Domo de Hierro en acción

En el marco de las recientes tensiones de medio oriente y lo efectivo que ha resultado el domo de hierro por parte de Israel utilizando IA para detectar amenazas y neutralizarlas, Freedman nos recuerda la importancia de una perspectiva histórica para desarrollar estrategias efectivas. La IA debe integrarse con cautela en estas estrategias, asegurando que las decisiones se tomen dentro de marcos éticos y legales y bajo la supervisión de humanos capacitados. Esta precaución es vital para prevenir errores que podrían intensificar los conflictos y desencadenar una guerra a gran escala.

En definitiva, hoy por hoy la obra de Freedman debería ser de lectura obligada en las academias de guerra, instando a una reflexión sobre cómo la guerra ha cambiado y la necesidad de adaptar nuestras estrategias a las realidades contemporáneas, incluyendo la adopción de la IA.

Piedra memorial en Varsovia. La inscripción dice «A Stanislav Petrov (1939-2017), oficial sociético cuyo coraje en 1983 salvó al mundo del cataclismo de la guerra nuclear; se arriesgó en nombre de la humanidad.»

En conclusión, no debemos olvidar las lecciones del pasado, deberíamos estudiar a Clausewitz, pero con el algoritmo de la inteligencia artificial. En este sentido, “The Future of War” sería un recordatorio de que, a pesar del progreso tecnológico, los principios fundamentales de la estrategia y la prudencia humana siguen siendo indispensables en la prevención y resolución de conflictos. Muy necesarios en los actuales momentos.

Sin embargo, recalcamos que el humano es quien debe tomar las decisiones transcendentales, pero:

¿Qué sucede cuando el humano decisor no tiene claro sus valores éticos y morales?

¿Cómo puede saber un robot la diferencia entre lo LEGAL y lo CORRECTO?

Referencias

Continúa navegando en el blog:

Sigue mi blog

«Sé tú mismo, los demás puestos están ocupados» Oscar Wilde

Únete a otros 84 suscriptores

Un comentario en “Reflexiones sobre la toma de decisiones en la era de la Inteligencia Artificial: el caso de Stanislav Petrov.”

Deja un comentario