La construcción social del cibercuerpo en la posmodernidad
marzo 5, 2024
Transformando el aula virtual: la IAG como catalizador de innovación en el diseño instruccional universitario
marzo 6, 2024

Seguridad Nacional, Inteligencia Artificial y ciberseguridad

Introducción

La humanidad ha avanzado más en los últimos 80 años que en los 5,000 años que les precedieron, en gran medida gracias a la revolución digital y los avances en la medicina y el conocimiento humano.

Dentro de estos avances, en el tramo más reciente de esta revolución digital, resalta la Inteligencia Artificial, cuya historia y evolución es fascinante, y nos muestra cómo una idea inicialmente considerada como ciencia ficción se ha convertido en una realidad en constante evolución. Desde los primeros conceptos de la IA en la década de 1940 hasta las aplicaciones modernas de aprendizaje profundo y redes neuronales, la IA ha transformado la forma en que interactuamos con la tecnología y ha impulsado el progreso en muchas áreas de la ciencia y la industria. Sin embargo, este desarrollo de la IA también plantea importantes desafíos para nuestras sociedades y la humanidad en general que no debemos pasar por alto. Se deben tomar medidas proactivas para abordar estos desafíos, con miras a intentar asegurarnos de que la IA se utilice para mejorar nuestras vidas y crear un futuro mejor y más sostenible para todos. Uno de estos desafíos tiene que ver con la ciberseguridad y la Seguridad Nacional de los Estados.

 

Seguridad Nacional

La Seguridad Nacional tiene como objetivo la conservación, la estabilidad y la continuidad de cualquier sociedad y sus intereses nacionales, incluyendo la vida y el bienestar de sus ciudadanos. La misma es afectada por riesgos y amenazas que surgen a diario, algunos procedentes de la naturaleza y muchos otros de la mente humana. La lista de los riesgos y amenazas a la Seguridad Nacional es larga y compleja de abordar. Dentro de los que más se mencionan están el terrorismo, los ciberataques y el crimen organizado.

 

¿Qué es la Seguridad Nacional?

El término seguridad ha ido evolucionado a la par con las transformaciones globales, con el objetivo de enfrentarse a los actuales desafíos que existen en el mundo. Actualmente, el mundo globalizado está en cambio constante por factores como:

• Las superpotencias y las nuevas potencias que están en crecimiento.
• El arraigo de nuevos actores internacionales.
• La influencia de los ciudadanos.
• Las transformaciones demográficas.
• Las disrupciones tecnológicas.
• El aumento de la interdependencia política, económica y legal.

 

Según el Departamento de Seguridad Nacional de España, Seguridad Nacional es la “acción del Estado dirigida a proteger la libertad, los derechos y bienestar de los ciudadanos, a garantizar la defensa de España y sus principios y valores constitucionales, así como a contribuir junto a nuestros socios y aliados a la seguridad internacional en el cumplimiento de los compromisos asumidos”.

12 ámbitos de la Seguridad Nacional

1. Defensa Nacional
2. Terrorismo
3. Ciberseguridad – es de suma importancia garantizar la seguridad en el ciberespacio porque, en según qué ocasione, puede afectar los intereses vitales y, por consecuencia, la Seguridad Nacional. Para esto, es necesario el fortalecimiento de las capacidades de preparación, prevención, defensa, detección y respuesta a los ciberataques.
4. Crimen organizado
5. Economía
6. Energía
7. Proliferación de armas de destrucción masiva
8. Inmigración
9. Contrainteligencia
10. Emergencias
11. Seguridad terrestre, aérea y marítima
12. Infraestructuras críticas – son todos aquellos servicios, suministros o comunicaciones (públicos o privados) que podrían suponer un riesgo en caso de interrupción o perturbación severa en su funcionamiento. En la actualidad, toda sociedad moderna cuenta con estos complejos e interdependientes sistemas.

 

Las amenazas híbridas

Teniendo en cuenta la realidad en la que viven los diferentes países frente a las amenazas provenientes del ciberespacio y de las organizaciones criminales transnacionales, cobran especial importancia las amenazas de tipo híbrido. Estas amenazas son consideradas como no convencionales, al igual que:

• Las amenazas provocadas por atacantes patrocinados por Estados.

• Las acciones encomendadas por servicios de inteligencia y contrainteligencia.

• El ciberterrorismo.

• El extremismo y radicalización a través del internet.

• El crimen organizado en-línea.

• La desinformación, cuyo auge representa hoy en día una de las amenazas más fáciles de ejecutar y más complejas de contrarrestar. Cabe destacar, que el grado de preocupación debe concentrarse, además, en la capacidad de respuesta a nivel global y regional. Debe verse como fundamental la cooperación internacional entre países, mediante la

 

La Seguridad Nacional tiene como objetivo la conservación, la estabilidad y la continuidad de cualquier sociedad y sus intereses nacionales

 

 

adopción de los instrumentos internacionales necesarios para combatir el crimen trasnacional. Igualmente, los países en vías de desarrollo requerimos de asistencia técnica en temas de ciberseguridad y lucha contra el ciberdelito por parte de aquellos con un mayor grado de desarrollo en estos temas. Estas nuevas amenazas globales traen consigo la presencia de nuevas formas de cibercrimen de alcance transnacional, que afecta a los Estados. De aquí se deriva la importancia de adoptar medidas de ciberdefensa que mitiguen y eliminen las nuevas amenazas híbridas, que pueden paralizar las actividades estratégicas de la economía nacional.

 

Ciberseguridad

Aunque no existe una definición oficial única, podemos decir que la ciberseguridad es el conjunto de procedimientos y herramientas que se implementan para proteger la información que se genera y procesa a través de computadoras, servidores, dispositivos móviles, redes y sistemas electrónicos. El término se aplica en diferentes contextos, desde los negocios hasta la informática móvil, y puede dividirse en algunas categorías comunes:

 

• La seguridad de red es la práctica de proteger una red informática de los intrusos, ya sean atacantes dirigidos o malware oportunista.

• La seguridad de las aplicaciones se enfoca en mantener el software y los dispositivos libres de amenazas. Una aplicación afectada podría brindar acceso a los datos que está destinada a proteger. La seguridad eficaz comienza en la etapa de diseño, mucho antes de la implementación de un programa o dispositivo.

• La seguridad de la información protege la integridad y la privacidad de los datos, tanto en el almacenamiento como en el tránsito.

•La seguridad operativa incluye los procesos y decisiones para manejar y proteger los recursos de datos. Los permisos que tienen los usuarios para acceder a una red y los procedimientos La Seguridad Nacional tiene como objetivo la conservación, la estabilidad y la continuidad de cualquier sociedad y sus intereses nacionales26 que determinan cómo y dónde pueden almacenarse o compartirse los datos se incluyen en esta categoría.

• La recuperación ante desastres y la continuidad del negocio definen la forma en que una organización responde a un incidente de ciberseguridad o a cualquier otro evento que cause que se detengan sus operaciones o se pierdan datos. Las políticas de recuperación ante desastres dictan la forma en que la organización restaura sus operaciones e información para volver a la misma capacidad operativa que antes del evento. La continuidad del negocio es el plan al que recurre la organización cuando intenta operar sin determinados recursos.

• La capacitación del usuario final aborda el factor de ciberseguridad más impredecible: las personas. Si se incumplen las buenas prácticas de seguridad, cualquier persona puede introducir accidentalmente un virus en un sistema que de otro modo sería seguro. Enseñarles a los usuarios a eliminar los archivos adjuntos de correos electrónicos sospechosos, a no conectar unidades USB no identificadas y otras lecciones importantes es fundamental para la seguridad de cualquier organización.

 

Inteligencia Artificial

La Inteligencia Artificial (IA) es una disciplina científica que nació oficialmente en 1956 en el Dartmouth College, en Hanover (Estados Unidos), durante un curso de verano organizado por cuatro investigadores estadounidenses: John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon. Podría definirse como la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear. Permite que los sistemas tecnológicos perciban su entorno, se relacionen con él, resuelvan problemas y actúen con un fin específico. La máquina recibe datos (ya preparados o recopilados a través de sus propios sensores, por ejemplo, una cámara), los procesa y responde a ellos. Es capaz de adaptar su comportamiento en cierta medida, analizar los efectos de acciones previas y de trabajar de manera autónoma. La Real Academia Española (RAE) define la IA como “la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”. Gartner define la IA como “la aplicación de análisis avanzados y técnicas basadas en la lógica, incluido el machine learning (ML), para interpretar eventos, respaldar y automatizar decisiones y llevar a cabo acciones”. Esta definición está en consonancia con el estado actual y emergente de las tecnologías y las capacidades de la IA, y reconoce que la IA implica por lo general un análisis probabilístico (en el que la probabilidad se combina con la lógica para asignar un valor a la incertidumbre).

El machine learning es una técnica fundamental que permite que la IA resuelva problemas. A pesar de algunas ideas erróneas generalizadas (y algunas denominaciones populares inapropiadas), las máquinas no aprenden. Lo que hacen es almacenar y computar; eso sí, de una manera cada vez más compleja. Es una disciplina meramente analítica. Se basa en aplicar modelos matemáticos a los datos para extraer conocimiento y hallar patrones que los humanos difícilmente podrían encontrar. El ML también recomienda acciones, pero no dirige los sistemas a llevarlas a cabo sin intervención humana. El “deep learning” (o aprendizaje profundo) es una variante del ML que, mediante el uso de múltiples capas de algoritmos, resuelve problemas al extraer conocimiento de los datos sin procesar y transformarlo en cada uno de los niveles. El deep learning puede mejorar los resultados del ML tradicional (o técnicas de aprendizaje superficial) al trabajar con datos complejos y a menudo multidimensionales, como imágenes, voz y texto. De todas formas, tanto los sistemas basados en reglas como el ML tradicional pueden resolver con eficacia muchos problemas de IA.

 

El reto de la Seguridad Nacional y la ciberseguridad ante el desarrollo de la IA

La IA aporta indudables ventajas en la recopilación de información, la toma de decisiones y la autonomía de sistemas, pero supone grandes desafíos éticos, legales y estratégicos.

En un mundo caracterizado por la creciente complejidad de las amenazas y la evolución constante de los conflictos, la integración de la IA en estrategias y operaciones militares plantea una serie de interrogantes cruciales, éticos y estratégicos, que deben ser cuidadosamente abordados para garantizar un equilibrio entre el poder transformador de la tecnología y la preservación de la seguridad global. Todo lo que puede ser utilizado para el bien puede ser utilizado para el mal, un arma que puede ser utilizada para defender también puede ser utilizada de manera ofensiva, con o sin justificación, de manera proporcional o no. Este es uno de los grandes dilemas que plantea el desarrollo de la IA.

Más allá de la imagen que por décadas nos ha dibujado el cine de ciencia-ficción de Hollywood, en el mejor de los casos, en un ambiente “controlado”, podemos utilizar herramientas de IA para fortalecer nuestra ciberseguridad, identificar y mitigar amenazas de forma automatizada y más eficiente, dejando al operador humano las decisiones más importantes- reduciendo “el ruido”, si se quiere. Pero también es crucial considerar la posibilidad de que un adversario potencial pueda emplear malware para tomar el control, influenciar o distorsionar el funcionamiento de los sistemas de IA destinados a fines ofensivos o defensivos. De la misma forma, se pueden utilizar herramientas de IA para atacar, para hacer los fraudes más fluidos, más creíbles, más localizados, e inclusive descifrar las medidas y técnicas de protección de los sistemas. Podríamos llamarle “ingeniería social en esteroides”. En el ámbito de la Seguridad Nacional también aplica este dilema. Podemos utilizar IA para mejorar significativamente nuestras defensas, para detección mucho más tempranas de amenazas. Uno de los aspectos más notables de la IA en defensa es su capacidad para analizar grandes cantidades de datos en tiempo real. Los sistemas de IA pueden procesar información proveniente de múltiples fuentes, como sensores, satélites y redes de vigilancia, y extraer patrones y tendencias que serían difíciles de detectar por métodos tradicionales. Los algoritmos de procesamiento de imágenes pueden identificar objetos, patrones y comportamientos anómalos, lo que mejora la detección temprana de amenazas y la identificación de objetivos. La IA también ha desempeñado un papel crucial en el desarrollo de sistemas autónomos y vehículos no tripulados. Los drones y vehículos terrestres autónomos han demostrado su utilidad en la recopilación de información en entornos hostiles y peligrosos, la realización de misiones de reconocimiento y la ejecución de operaciones de búsqueda y rescate. Estos sistemas pueden ser controlados de manera remota o seguir rutas preprogramadas utilizando algoritmos de IA, lo que reduce el riesgo para el personal militar y permite una mayor flexibilidad en la planificación de misiones. Sin embargo, a medida que la IA se convierte en una parte integral de la defensa, surgen importantes desafíos éticos y legales. La toma de decisiones autónomas por parte de sistemas de IA plantea preguntas sobre la responsabilidad y la rendición de cuentas en caso de incidentes. Además, la posibilidad de que la IA pueda ser utilizada en operaciones ofensivas ha generado debates sobre la necesidad de regulaciones internacionales que controlen su desarrollo y uso. Básicamente, la IA puede suponer dos tipos de amenazas: una de origen tecnológico y otra de origen humano. La amenaza tecnológica se puede dar si la IA se convierte en “superinteligente”, es decir, que esta llegue a ser superior a la inteligencia humana (aún un escenario hipotético y tal vez en un futuro no tan cercano, pero teóricamente posible). En cambio, la amenaza humana se materializa si la IA es desarrollada y usada con fines perversos y/o letales por parte de actores estatales y no estatales.

Un arma que puede ser utilizada para defender también puede ser utilizada de manera ofensiva

 

 

El reto del desarrollo regulado de la Inteligencia Artificial

Uno de los más grandes retos que enfrentan los gobiernos en este momento de cara a un futuro que podría no ser tan lejano, es poder poner ciertos límites y reglas al desarrollo de la Inteligencia Artificial, sobre todo al nivel de autonomía que esta podría llegar a tener, intentar mitigar los riesgos de usos indebidos. El presidente de los Estados Unidos, Joe Biden, emitió el 30 de octubre de 2023 una orden ejecutiva (decreto) “sobre el desarrollo y la utilización seguros y confiables de la Inteligencia Artificial”1 que intenta lograr justamente eso, gobernar el desarrollo y el uso responsable y de forma segura de la IA. De su lado, la Unión Europea aprobó, de manera provisional, en diciembre de 2023, la primera ley de Inteligencia Artificial2, que pretende garantizar la protección de los derechos fundamentales, la democracia, el Estado de Derecho y la sostenibilidad medioambiental frente a la IA de alto riesgo, a la vez de impulsar la innovación, convirtiendo a Europa en líder en este campo. La normativa establece obligaciones para la IA en función de sus riesgos potenciales y nivel de impacto. El texto acordado deberá ahora ser adoptado formalmente, tanto por el Parlamento como por el Consejo, para convertirse en legislación de la UE. Las comisiones parlamentarias de Mercado Interior y Libertades Civiles votarán el acuerdo en una próxima reunión.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Se pueden utilizar herramientas de IA para atacar, para hacer los fraudes más fluidos, más creíbles, más localizados

 

 

Conclusión

Resulta evidente de que, a pesar del enorme y vertiginoso avance que hemos tenido, aún nos queda un largo camino por recorrer, probablemente el más crítico de todos. Aunque tenemos claridad de cuáles son los principales riesgos y desafíos y se han comenzado a dar los pasos en ese sentido, es importante que el desarrollo responsable de la Inteligencia Artificial y sus correspondientes controles éticos y de seguridad se conviertan en parte de su diseño mismo, en lugar de preocuparnos en abordar los problemas una vez ya se hayan presentado. Esto no es únicamente responsabilidad de los desarrolladores y de los gobiernos, el uso responsable de la tecnología es responsabilidad de todos, por lo que también debemos generar conciencia de ello en toda la población del planeta.

 

Referencias

 

  • https://w w w.lisainstitute.com/ blogs/ blog/seguridad-nacio- nal-riesgos-amenazas
  • https://www.europarl.europa.eu/news/es/headlines/society/20200827STO85804/que-es-la-inteligencia-artificial-y-como-se-usa
  • https://www.gartner.es/es/temas/inteligencia-artificial
  • https://latam.kaspersky.com/resource-center/definitions/what-is-cyber-security
  • https://support.microsoft.com/es-es/topic/-qu%C3%A9-es-la-ciberseguridad-8b6efd59-41ff-4743-87c8-0850a352a390#:~:-text=La%20ciberseguridad%2C%20tambi%C3%A9n%20conocida%20como,fotos%20e%20incluso%20el%20dinero
  • https://www.infosecuritymexico.com/es/ciberseguridad.html#:~:text=De%20acuerdo%20a%20los%20expertos,seguridad%20de%20la%20informaci%C3%B3n%20electr%-C3%B3nica.
  • https://www.incibe.es/sites/default/files/contenidos/guias/doc/guia_glosario_ciberseguridad_2021.pdf
  • https://www.esglobal.org/inteligencia-artificial-y-seguridad-nacional/
  • https://courier.unesco.org/es/articles/inteligencia-artificial-entre-el-mito-y-la-realidad
  • https://elordenmundial.com/podcasts/no-es-el-fin-del-mundo/la-inteligencia-artificial-una-amenaza-para-la-seguridad-nacional/
  • https://www.unav.edu/web/global-affairs/el-reto-de-la-inteligencia-artificial-para-la-seguridad-y-defensa
  • https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/
  • https://artificialintelligenceact.eu/the-act/

 

 

 

 

CLAUDIO PEGUERO
CLAUDIO PEGUERO
cmpeguero@gmail.com       El General Claudio Peguero Castillo es Ingeniero de Sistemas del Instituto Tecnológico de Santo Domingo (INTEC). Maestrías en Comercio Electrónico de la Universidad APEC y en Investigación de Ciberdelitos y Análisis Forense Digital de la Universidad de Dublin, Irlanda. Presidente del Grupo de Trabajo Ciber-Américas de INTERPOL para el periodo 2022-2024. Embajador para Asuntos Cibernéticos del Ministerio de Relaciones Exteriores. Docente de la Maestría de Ciberseguridad del INTEC.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *