
La ingeniería social es el vector de acceso inicial más común que los cibercriminales explotan para vulnerar las organizaciones. Con cada año que pasa, los ataques de ingeniería social se vuelven más grandes y audaces gracias a los rápidos avances en inteligencia artificial.
En noviembre de 2022 se presentó el primer modelo de lenguaje grande (LLM), que se lanzó de forma gratuita al público. En 2023, el mundo comenzó a utilizar herramientas de IA generativa y los desarrolladores implementaron una variedad de características y funcionalidades basadas en estos LLM. En la segunda mitad de 2024, surgió rápidamente una nueva iteración: agentes impulsados por IA ("IA agéntica") que pueden actuar de forma autónoma y ejecutar tareas complejas.
La forma en que los humanos interactúan y colaboran con la IA está dando un gran paso adelante gracias a la IA con agentes, una tecnología emergente que transformará las industrias en todas partes. Combina nuevas formas de inteligencia artificial (IA), como los grandes modelos de lenguaje (LLM), la IA tradicional, como el aprendizaje automático, y la automatización empresarial para crear agentes de IA autónomos que pueden analizar datos, establecer objetivos y tomar medidas con una menor supervisión humana. Estos agentes son capaces de tomar decisiones y resolver problemas de forma dinámica, aprender y mejorar a través de cada interacción. Piense en agentes con inteligencia artificial que puedan planificar su próximo viaje al extranjero y hacer todos los arreglos de viaje; robots con apariencia humana que actúen como cuidadores virtuales de personas mayores; o especialistas en cadenas de suministro con inteligencia artificial que puedan optimizar los inventarios sobre la marcha en respuesta a las fluctuaciones de la demanda en tiempo real.
Gartner predice que, para 2028, un tercio de nuestras interacciones con la IA pasarán de ser simplemente escribir comandos a interactuar plenamente con agentes autónomos que pueden actuar según sus propios objetivos e intenciones.
La IA está ayudando a los cibercriminales a avanzar en sus campañas de ingeniería social de múltiples maneras:
- Phishing personalizado: los algoritmos de IA pueden analizar datos de las redes sociales (como antecedentes, intereses, empleo, conexiones, asociaciones, ubicación, etc.) y varias fuentes OSINT para crear ataques de phishing más personalizados y convincentes.
- Contenido local y contextual: herramientas como ChatGPT, Copilot y Gemini pueden ayudar a redactar correos electrónicos de phishing que sean gramaticalmente correctos, contextualmente apropiados y traducidos a cualquier idioma local. Se puede pedir a la IA que imite un estilo o tono de escritura específico, y se pueden redactar correos electrónicos de phishing de acuerdo con la respuesta o el comportamiento de un destinatario.
- Deepfakes realistas: los actores de amenazas utilizan herramientas de deepfake para crear personajes virtuales falsos y clones de audio de ejecutivos superiores y socios comerciales de confianza. Los deepfakes se utilizan para convencer a los empleados de que compartan información confidencial, transfieran dinero o concedan acceso a la red de una organización.
Dado que la IA está disponible para todos, podemos esperar que los ciberdelincuentes exploten la tecnología de IA agética con fines maliciosos. A continuación, se enumeran algunos casos que explican cómo los actores maliciosos utilizarán la IA agéntica como arma para lanzar ataques de ingeniería social:
- Amenazas automejorables, adaptativas e implacables: uno de los beneficios clave de la IA agéntica es que contiene memoria y, por lo tanto, posee la capacidad de aprender e improvisar. A medida que la IA interactúa con más víctimas a lo largo del tiempo, recopila datos sobre qué tipos de mensajes o enfoques funcionan mejor para ciertos tipos demográficos. Por lo tanto, se adapta, perfecciona sus futuras campañas de phishing, haciendo que cada ataque posterior sea más poderoso, convincente y efectivo.
- Phishing selectivo automatizado: la IA no agente se basa esencialmente en indicaciones; los cibercriminales tienen que proporcionar datos específicos para que la IA cree un correo electrónico de phishing. En el nuevo orden mundial, los agentes de IA maliciosos recopilarán de forma autónoma datos de los perfiles de las redes sociales, crearán mensajes de phishing, los adaptarán a personas u organizaciones específicas y los difundirán hasta lograr el resultado deseado.
- Orientación dinámica: los agentes de IA pueden actualizar o alterar dinámicamente su discurso de phishing en función de la respuesta o la ubicación del destinatario, o de cosas como días festivos, eventos o los intereses del objetivo, lo que marca un cambio significativo de los ataques de phishing estáticos a amenazas de ingeniería social altamente adaptables y en tiempo real. Por ejemplo, si se ignora un mensaje de phishing, la IA podría enviar un mensaje de seguimiento con un tono más urgente.
- Campañas de varias etapas: la IA con agentes puede orquestarse para lanzar ataques de ingeniería social complejos y de varias etapas. En términos más simples, se le puede indicar a la IA que aproveche los datos de una interacción para impulsar la siguiente. Por ejemplo, un ataque de phishing puede inducir a alguien a revelar una pequeña cantidad de información en la primera ronda de ataques. La IA puede luego usar esa información para trazar su próximo curso de acción.
- Ingeniería social multimodal: un agente de IA autónomo podría ir más allá del correo electrónico y usar o combinar otros canales de comunicación, como mensajes de texto, llamadas telefónicas o redes sociales, en sus intentos de phishing. Por ejemplo, si se ignora un mensaje de correo electrónico de phishing, la IA podría hacer una llamada de seguimiento usando un audio o video deepfake para mejorar las posibilidades de que el objetivo responda.
Puntos clave para las organizaciones
A continuación, se presentan algunas prácticas recomendadas para las organizaciones:
- Combatir la IA con IA, más IA y con IA...: para combatir los ataques avanzados de ingeniería social, considere la posibilidad de crear o adquirir un agente de IA que pueda evaluar los cambios en la superficie de ataque, detectar actividades irregulares que indiquen acciones maliciosas, analizar feeds globales para detectar amenazas de forma temprana, monitorear desviaciones en el comportamiento de los usuarios para detectar amenazas internas y priorizar la aplicación de parches en función de las tendencias de vulnerabilidad.
- Aprovechar la concientización sobre seguridad basada en la IA: la capacitación sobre seguridad es un componente no negociable para reforzar las defensas humanas. Las organizaciones deben ir más allá de la capacitación sobre seguridad tradicional y aprovechar herramientas que puedan hacer cosas como asignar contenido atractivo a los usuarios en función de las puntuaciones de riesgo y las tasas de falla, generar dinámicamente cuestionarios y escenarios de ingeniería social en función de las últimas amenazas, activar actualizaciones breves, etc.
- Preparar a los empleados para la ingeniería social con IA: la intuición y la vigilancia humanas son fundamentales para combatir las amenazas de ingeniería social. Las organizaciones deben redoblar sus esfuerzos para fomentar una cultura de ciberseguridad, educar a los empleados sobre los riesgos de la ingeniería social y su impacto en la organización, capacitarlos para identificar y denunciar dichas amenazas y brindarles herramientas que puedan mejorar el comportamiento en materia de seguridad.
Obviamente, los cibercriminales no tardarán en aprovechar estos avances para sus fechorías. Las organizaciones deben reforzar sus defensas para prepararse para esta eventualidad mediante la implementación de sus propios agentes de ciberseguridad basados en IA, aprovechando la capacitación en seguridad basada en IA e inculcando un sentido de responsabilidad en materia de seguridad.
Fuente: SecurityWeek