Óscar Ruiz
Experto en Migraciones y Analista Internacional
Los grupos terroristas están aprovechando la inteligencia artificial (IA) para incrementar la escala y efectividad de sus operaciones de propaganda, reclutamiento y ataques cibernéticos, además de estar investigando cómo usar drones con IA para realizar atentados. ¿De qué herramientas y estrategias disponemos para dificultarles el trabajo?
La tecnología en general avanza y se vuelve mucho más accesible para todos los públicos, y por supuesto también para organizaciones como el Estado Islámico (ISIS) y otros actores violentos que han comenzado a experimentar con herramientas de IA para maximizar su alcance y minimizar el riesgo de ser detectados. Esto presenta un reto de seguridad para las autoridades que solo pueden ser testigos de cómo la tecnología avanza y se expande, y los medios para controlarla le van muy a la zaga, requiriendo una adaptación cada vez más rápida en las estrategias de control de la IA por parte de grupos terroristas.
Cómo usa la IA el terrorismo
Son varias (y cambiantes) las aplicaciones de IA usadas por parte de grupos extremistas, y varían desde la automatización de contenidos de propaganda hasta el uso de chatbots para reclutamiento interactivo y la manipulación de redes sociales. Por ejemplo, los chatbots con capacidades de IA se han utilizado para proporcionar información personalizada a potenciales reclutas, adaptando mensajes según sus creencias e intereses (exactamente igual que están haciendo los ejércitos modernos para filtrar su búsqueda de nuevos reclutas). Esto hace que el contenido sea más relevante y persuasivo para los objetivos, fomentando una conexión más fuerte con el grupo extremista, por lo que no se necesita así intervención humana directa.
La creación de videos con avatares generados por IA para difundir mensajes de propaganda, emulando estéticas de medios de comunicación convencionales para ganar credibilidad entre sus audiencias, ha sido otra manera por parte de grupos como ISIS de utilizar este tecnología. La IA generativa también ha sido empleada para traducir automáticamente la propaganda a múltiples idiomas, que permite a los terroristas superar las barreras lingüísticas y aumentar la distribución de sus mensajes a nivel global.
El futuro de la IA en manos terroristas
Pero estas herramientas mencionadas podrían ser solo la punta del iceberg porque el potencial de la IA utilizada por organizaciones terroristas se puede extender a otros ámbitos más complejos y peligrosos. Un área que preocupa a los expertos en seguridad es el uso de drones autónomos o “robots asesinos”. Los terroristas ya han comenzado a integrar la IA en drones para mejorar la navegación autónoma, el reconocimiento de objetivos y la planificación de misiones en tiempo real. Estos drones pueden ser usados para llevar a cabo ataques a gran escala sin intervención humana, reduciendo el riesgo para los operadores y aumentando la letalidad de sus acciones . También existe la posibilidad de que grupos terroristas utilicen vehículos autónomos como bombas móviles (exactamente como se está utilizando actualmente en la guerra de Ucrania), y aunque todavía este método parece que no se ha utilizado, sí que habría indicios de que ISIS/Daesh y otras organizaciones han estado investigando esta tecnología, con el peligro que esto conllevaría.
En cuanto a lo cibernético, los terroristas podrían usar la IA para lanzar ciberataques más sofisticados que identifiquen vulnerabilidades y adapten sus tácticas en tiempo real, como por ejemplo el uso de LLM (modelos de lenguaje de gran escala) para simular interacciones humanas y engañar a los sistemas de seguridad, lo que haría más difícil detectar ataques antes de que se produzcan daños importantes en los sistemas.
Cómo combatirlo
Evitar el uso de este tipo de herramientas por parte de terroristas no es otra cosa sino una utopía, pero sí que se pueden tomar medidas y estrategias para dificultar el uso de la IA por parte de los “malos”. Fundamental seria comenzar con la mejora en la moderación de contenidos; en este caso los moderadores de contenido y las plataformas tecnológicas deben actualizar sus algoritmos para identificar contenido generado por IA, utilizando enfoques como el análisis de inconsistencias en patrones de lenguaje, sombras inusuales en videos y expresiones faciales anormales. Además, las técnicas de “hashing” para detectar y bloquear contenido reciclado o manipulado deben adaptarse a las capacidades de la IA generativa.
También sería interesante una colaboración de los sectores involucrados; los gobiernos, las empresas tecnológicas y las instituciones académicas deben establecer marcos de colaboración más robustos para compartir conocimientos y coordinar esfuerzos contra el uso malicioso de la IA. Iniciativas como la European Union’s Code of Practice on Disinformation ofrecen ejemplos de cómo se puede fomentar la cooperación para mitigar el impacto de la IA generativa en la difusión de propaganda. Otra herramienta importante sería el desarrollo de IA defensiva.
Las tecnologías de IA también pueden utilizarse para desarrollar sistemas de defensa avanzados, como sistemas de moderación automatizada y chatbots diseñados para interceptar y redirigir potenciales reclutas antes de que se radicalicen. Por último, sería necesario incentivar la educación y concienciación pública. La educación y la sensibilización de los ciudadanos sobre los riesgos de la IA generativa y la manipulación digital son fundamentales para desarrollar una resiliencia social contra la desinformación. Iniciativas como campañas de alfabetización mediática deben ser una prioridad para que las personas puedan identificar contenidos manipulados o generados artificialmente.
El uso de la IA por parte de grupos terroristas es, además de un asunto inevitable, una amenaza en evolución que requiere nuevas estrategias y herramientas por parte de las agencias de seguridad. Y aunque los avances en la IA pueden ser utilizados para mejorar las capacidades defensivas, no cabe duda de que amplían las posibilidades de ataque y permiten a los terroristas operar con mayor sofisticación y a menor coste y exposición. El desarrollo de políticas que se adapten a los cambios, la colaboración internacional y la implementación de sistemas tecnológicos avanzados serán cruciales para afrontar estos desafíos y proteger la seguridad global en un mundo cada vez más digitalizado.