Radicalización Y Planificación De Ataques Terroristas Con El Uso De La Inteligencia Artifical
INTRODUCCIÓN
La Inteligencia Artificial (IA) es una rama de la informática que se enfoca en crear sistemas que puedan realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento y la percepción. Por lo anterior, esta herramienta posee múltiples ventajas, como el procesamiento y análisis de enormes volúmenes de datos a alta velocidad, la automatización de tareas, la reducción de errores y la optimización de procesos.
A pesar de sus múltiples beneficios en diferentes campos, también estaría siendo aprovechada por las organizaciones terroristas, en la difusión de propaganda, reclutamiento de nuevos miembros y en la búsqueda de incrementar su base de apoyo. La IA tendría un impacto en los procesos de radicalización violenta, incluyendo la auto-radicalización.
Para los actores terroristas, ya sea agrupaciones o individuos actuando en solitario, la IA representa una oportunidad para lograr mayor eficacia en la difusión de su mensaje y también en otros aspectos de la actividad terrorista, como es la planificación de atentados.
Posibilidad de generar narrativas extremistas con uso de IA
La comunicación es fundamental en el marco de las acciones terroristas, para trasmitir el mensaje que sustenta la lucha, además de justificar las acciones de violencia, y por supuesto generar influencia, ya que el terrorismo podría ser definido como “táctica consistente en la ejecución de acciones puntuales o seriadas de violencia, intimidatorias, con fines políticos o ideológicos, para influir sobre determinadas audiencias” (Heise, 2022).
En el Informe anual sobre la situación y las tendencias del terrorismo en la Unión Europea, de la Agencia de la Unión Europea para la Cooperación Policial (Europol, 2024) se consigna que los terroristas continúan demostrando una notable habilidad en el uso de las tecnologías emergentes, destacándose el incremento del uso de la IA generativa y la distribución de videos orientados a jóvenes, ocultando su naturaleza de propaganda terrorista, para así difundirlos mediante plataformas de internet.
De hecho, “en febrero de 2024, otro estudio examinó 286 piezas de contenido generado o mejorado con IA, creado o compartido por cuentas pro-Estado Islámico en cuatro importantes plataformas de redes sociales. Las imágenes más comunes en el material generado con IA eran banderas y armas del EI. La IA permitió a los simpatizantes generar contenido de forma creativa y eficiente, e incluso eludir los filtros de Instagram y Facebook, difuminando la bandera del EI o colocando una pegatina encima” (Hemrajani, 2024).
Los actores terroristas usando IA de tipo generativa, que corresponde a sistemas que pueden generar nuevos contenidos, como imágenes, texto o música, crean narrativas persuasivas de manera fácil, orientados a determinados públicos. Una característica de los contenidos elaborados con IA es que pueden ser muy realistas, por lo que al verlos puede resultar difícil distinguir entre el manipulado y el real, debido a la calidad del material audiovisual y a la posibilidad de segmentar los públicos.
En este sentido, un reciente estudio señala que aplicaciones de IA podrían tener mayor capacidad de persuasión que los seres humanos, incluso con la capacidad de influir en la opinión pública, de acuerdo a un experimento en el que participaron 900 personas en Estados Unidos, se observó que los chatbots de IA eran más perSEGURIDAD ARTÍCULO JULIO 2025 | NÚMERO 94 15 -suasivos el 64% de las veces, lo que se debería a la capacidad para personalizar los argumentos de forma instantánea y a gran escala, algo que para los humanos requeriría más tiempo y esfuerzo. La IA puede adaptar un mensaje basándose en información demográfica, género, edad, etnia, afiliación política, entre otros factores, para alcanzar mayor persuasión (Salvi et al., 2025). La posibilidad de procesar grandes volúmenes de datos facilita que los terroristas adapten su mensaje a determinados grupos, sobre la base del perfil, para conseguir nuevos adherentes y/o reclutas.
Los algoritmos de la IA personalizan el contenido y reiteran el menaje terrorista, acelerando la adopción de ideas extremistas. “Los algoritmos de inteligencia artificial en plataformas digitales adaptan el contenido que los usuarios visualizan personalmente y refuerzan creencias preexistentes al amplificar sesgos cognitivos. En el ámbito de las narrativas extremistas, estos algoritmos pueden detectar individuos susceptibles y alimentar cámaras de eco, facilitando así la radicalización” (Echaiz, 2024).
Considerando la capacidad de persuasión, en términos de inducir a creencias o comportamientos, que posee la IA es factible su uso por parte de terroristas, de distintas adscripciones ideológicas, no solamente yihadistas, debido a que la esencia del terrorismo es su doble dimensión de ataque y comunicación, entendiendo que se trata de una forma de comunicación política, por tanto, el diseño de la narrativa que se va a trasmitir es relevante para quien usa esta táctica, sobre todo cuando existe la posibilidad de tener mayor impacto en audiencias segmentadas. En este sentido, organizaciones como Estado Islámico y Al Qaeda ya estarían usando IA, además, instarían a sus seguidores a utilizarla para difundir su mensaje extremista, lo que implica adaptación a los avances tecnológicos en el contexto de sus campañas terroristas.
“La creación de videos con avatares generados por IA para difundir mensajes de propaganda, emulando estéticas de medios de comunicación convencionales para ganar credibilidad entre sus audiencias, ha sido otra manera por parte de grupos como ISIS de utilizar esta tecnología. La IA generativa también ha sido empleada para traducir automáticamente la propaganda a múltiples idiomas, que permite a los terroristas superar las barreras lingüísticas y aumentar la distribución de sus mensajes a nivel global” (Ruiz, 2024).
Según el Índice del Terrorismo Global, elaborado por el Instituto para la Economía y la Paz (2025), la tecnología, sobre todo la IA, está cambiando rápidamente la forma en que las organizaciones terroristas se comunican y reclutan, mencionándose como ejemplo que la facción “Provincia de Jorasán del Estado Islámico” (ISIS-K) usa IA para producir contenido de propaganda en formato digital, como revistas y videos, con una alta calidad, con el que busca reclutar e inspirar; además del uso de aplicaciones de mensajería cifrada como Telegram, que les permite comunicarse de manera segura.
De acuerdo con lo anterior, la IA sería una poderosa herramienta para la captación, ya que “en el proceso de reclutamiento, se puede utilizar un bot para captar la atención de las posibles víctimas interactuando con la persona y ofreciendo respuestas a sus aportaciones. Más tarde, un ser humano podría tomar el control de la conversación para involucrarse de manera más personal. Por otro lado, la tecnología avanzada, LLMs como ChatGPT, permite a los grupos terroristas proporcionar una experiencia similar a la humana incluso sin la interferencia de ningún ser humano” (Nelu, 2024).
La IA facilitaría que individuos se radicalicen en determinados entornos virtuales, con contenido diseñado por organizaciones terroristas, con acceso a material audiovisual que trasmita de manera breve y persuasiva ideología y pautas para la acción violenta. Debe precisarse, que los contenidos, además de radicalizar, también podrían orientarse a producir temor y ansiedad, mediante noticias falsas en el marco de campañas de desinformación, con un impacto en la estabilidad social.
La Estrategia Nacional contra el Terrorismo de España 2023, plantea la evolución del fenómeno terrorista, debido a que éste aprovecha cada vez más el ciberespacio y las tecnologías, señalando el imperativo de contrarrestar la propaganda extremista en línea, en cuyo contexto las nuevas tecnologías, como la IA, pueden ser usadas para la detección y prevención de la radicalización.
Posibilidad de Planear atentados con uso de IA
En la etapa de planificación de un atentado, quienes vayan a perpetrarlo pueden recurrir a entrenamiento virtual, con uso de IA para simular el lugar donde se realizará el ataque, lo cual también es aplicable a sujetos auto-radicalizados y no sólo a los militantes de organizaciones, respecto a la elección del escenario físico y la táctica a emplear.
En este sentido, el procesamiento de datos de múltiples fuentes abiertas permitiría acceder a información para seleccionar un objetivo de ataque, por ejemplo, de edificios que representen un valor simbólico o infraestructura crítica, pudiendo identificarse factores de importancia para la operación, tales como rutas de acceso y de escape, vulnerabilidades de seguridad, horarios, presencia policial, entre otros aspectos.
Respecto a la adquisición de conocimientos y habilidades técnicas por parte de las organizaciones terroristas para hacer un uso eficaz de la IA, considerando la capacidad de adaptación que éstas han evidenciado, es factible que en el futuro podrían ir consolidándose células de IA para desarrollar una función profesional en el ámbito de la propaganda y planificación de atentados.
La aplicación ChatGPT posee reglas que impiden acceder a información para cometer delitos, como asesinatos, sin embargo, sería posible burlar las restricciones y obtener información que puede ser utilizada en el proceso de planificación de un atentado. Un incidente en que se habría utilizado IA fue el protagonizado por Matthew Livelsberger, quien alquiló el Cybertruck de Tesla y lo hizo detonar [El vehículo lo habría cargado con cilindros de gas de camping, combustible y pirotecnia. ] frente a un hotel de propiedad de Donald Trump en Las Vegas, el 1 de enero de 2025. Este sujeto habría usado ChatGPT para preparar el atentado, obteniendo información sobre diferentes tipos de explosivos y métodos de detonación, además de la forma de adquirir un arma de fuego en el Estado de Colorado (Jiménez, 2025).
El hecho ocurrido en Las Vegas pone en evidencia la dificultad que implica detectar y prevenir ataques planificados en entornos virtuales y ejecutados por individuos que interactúan con inteligencia artificial.
CONCLUSIONES
Las organizaciones terroristas se están adaptando a las tecnologías emergentes, incluyendo la IA, para mejorar sus operaciones. La calidad de la propaganda y contenido audiovisual generado por los terroristas, de manera creciente dificultará su detección y será más persuasivo para personas que están iniciando un proceso de radicalización violenta y accedan a dicha propaganda. Debe precisarse, que los algoritmos de IA tienen la capacidad para fomentar la radicalización al explotar sesgos cognitivos y creencias preexistentes de los individuos.
La IA también puede proporcionar asistencia en la planificación, entrenamiento virtual, identificación de objetivos de ataque en el mundo real y comunicación encriptada, lo que podría amplificar la capacidad y complejidad de los ataques terroristas.
Esta evolución plantea nuevos retos en materia de seguridad, para la prevención, detección y desarticulación de actividades terroristas en línea, considerando la naturaleza automatizada y altamente indetectable de los contenidos generados por IA, por lo que surge la necesidad de nuevas regulaciones y adaptación de los marcos legales, además de la colaboración internacional en inteligencia.
Con la velocidad que los terroristas se adaptan a las nuevas tecnologías en su beneficio, tendrán que adaptarse los organismos policiales e inteligencia en el despliegue de contramedidas. Debido a que la IA permite procesar altas cantidades de información, también puede emplearse para identificar propaganda extremista, analizando imágenes y videos para detectar actividades terroristas. Respecto a lo anterior, se requiere la colaboración de todos los actores involucrados, como los gobiernos y las empresas tecnológicas, para coordinar esfuerzos contra el uso terrorista de la IA.
REFERENCIAS
Consejo de Seguridad Nacional. (2024). Estrategia Nacional contra el Terrorismo 2023. Gobierno de España.
Echaiz, K. (2024). Sesgos cognitivos y algoritmos de la IA en la narrativa extremista. Revista Al-Ghurabá, 86, 11-17.
Europol. (2024). Informe sobre la situación y las tendencias del terrorismo en la Unión Europea (TE-SAT) 2024. Oficina de Publicaciones de la Unión Europea.
Heise, M. (2022), Análisis conceptual del terrorismo como táctica de comunicación política, Revista Internacional de Estudios sobre Terrorismo, 6, 31-41.
Hemrajani, A. (26 agosto de 2024). The Use of AI in Terrorism. S. Rajaratnam School of International Studies (RSIS). https://rsis.edu.sg/rsis-publication/rsis/the-use-of-ai-in-terrorism/
Institute for Economics & Peace. (2025, Marzo). Global Terrorism Index 2025: Measuring the Impact of Terrorism. Vision of Humanity. https://www.economicsandpeace.org/wp-content/uploads/2025/03/Global-Terrorism-Index-2025.pdf
Jiménez, A. (08 enero de 2025). El terrorista de Las Vegas usó ChatGPT para preparar la explosión en el hotel de Trump. El Mundo. https://www.elmundo.es/tecnologia/2025/01/08/677e65b2e85ece5e578b45aa.html
Nelu, C. (2024). Exploitation of Generative AI by Terrorist Groups. International Centre for Counter-Terrorism (ICCT). https://icct.nl/publication/exploitation-generative-ai-terrorist-groups
Ruiz, O. (28 octubre de 2024). Terrorismo e inteligencia artificial, un tándem mortal. The Diplomat. https://thediplomatinspain.com/2024/10/28/terrorismo-e-inteligencia-artificial-un-tandem-mortal/
Salvi, F., Horta Ribeiro, M., Gallotti, R. et al. (2025). On the conversational persuasiveness of GPT-4. Nature Human Behaviour. https://www.nature.com/articles/s41562-025-02194-6
Mauricio Heise (01/Jul/2025), España






Contacto
coordinaciongeneral@centronacionalcnt.org
Contáctanos
Se brindará respuesta en un lapso no mayor a 24hr*


© 2025, Portal Centro Nacional CNT. Todos los derechos reservados |