Un empleado de una gran multinacional recibe un correo electrónico en el que se le pide que envíe dinero. El correo electrónico parece provenir del director financiero de la empresa. El empleado sospecha, pero esto cambia cuando se le invita a una videollamada. A esta reunión asisten el director financiero, compañeros de trabajo y algunos participantes externos, o al menos eso parece. Pero las personas que parecen reales son solo versiones de IA. Los estafadores probablemente habían descargado vídeos con antelación y luego utilizaron inteligencia artificial para añadir voces falsas a la videoconferencia. Convencen al empleado para que realice 15 transacciones por un total de 200 millones de dólares hongkoneses (40 millones de dólares estadounidenses) a cuentas bancarias locales en el transcurso de una semana. ¿Suena a ciencia ficción? No, esto sucedió realmente a principios de 2024 en Hong Kong, China.

Los ciberataques basados en IA (inteligencia artificial) como este, que implicaban deepfakes, están aumentando. Según un estudio de Deep Instinct de 2023, el 75 % de los profesionales de la seguridad fueron testigos de un aumento de los ataques en los últimos 12 meses, y el 85 % atribuyó este aumento a los malos actores que utilizan IA generativa. El Informe de Defensa Digital de Microsoft de 2024 destaca la IA como una de las amenazas actuales y emergentes para la seguridad de IT.

Los peligros de los ciberataques impulsados por IA son muy evidentes. Es probable que los ataques basados en la IA sean aún más sofisticados, selectivos y persistentes que los ataques humanos hasta la fecha, lo que los hace mucho más difíciles de detectar y defenderse. Por lo tanto, los ataques basados en IA harán que sea más común que los atacantes se infiltren en las redes corporativas y los harán aún más difíciles de detectar. Con una mayor automatización y dependencia de la IA en las infraestructuras críticas, el riesgo de ciberataques basados en IA aumenta aún más. A medida que más y más dispositivos se conectan a Internet (Internet de las cosas), aumentan las superficies de ataque a las que pueden dirigirse los ciberdelincuentes. Los sistemas de IA pueden utilizarse para una serie de ataques peligrosos, como el ransomware y el malware basados en la IA, el descifrado de contraseñas, el phishing, el vishing y los deepfakes.

Es fundamental que todas las organizaciones conozcan los posibles ataques impulsados por IA y se aseguren de contar con el apoyo de expertos y los sistemas adecuados para gestionarlos de forma eficaz.

Combatir la IA con IA: ¿por qué no utilizar las habilidades del enemigo y vencerlo con sus propias armas? Las empresas también pueden utilizar sistemas de seguridad impulsados por IA para defenderse de estas amenazas, utilizando una potente automatización para anticiparse y combatir los ciberataques de forma eficaz.

Principales amenazas de IA por parte de los ciberdelincuentes Ataques dirigidos a la infraestructura IT

1. Malware y ransomware impulsados por IA

Los ciberdelincuentes pueden utilizar la IA para adaptar de forma rápida y continua su malware y ransomware, de modo que el software de seguridad ya no los reconozca como maliciosos. Los investigadores de seguridad han identificado recientemente «BlackMamba», una nueva cepa de malware impulsada por IA que utiliza el aprendizaje automático para evadir la detección. Este ataque de keylogging tiene el potencial de evadir por completo la mayoría de las soluciones de seguridad de detección y respuesta de endpoints (EDR) existentes.

2. Descubrimiento y explotación automatizados de vulnerabilidades

Los sistemas de IA pueden escanear redes y aplicaciones en busca de vulnerabilidades y brechas de seguridad, conocidas como exploits, de forma mucho más rápida y exhaustiva que los métodos convencionales. También pueden explotar estas vulnerabilidades automáticamente, lo que puede comprometer los sistemas antes de que los defensores humanos puedan reaccionar. El mayor peligro para los usuarios lo representan los «exploits de día cero», es decir, vulnerabilidades que antes eran desconocidas para los fabricantes de software.

3. Ataques de evasión de IA a los sistemas de aprendizaje automático

A medida que las empresas dependen cada vez más de la IA para la seguridad, los atacantes también están encontrando formas de engañar a estos sistemas. Al alterar los datos de entrada, pueden hacer que los sistemas de seguridad de IA clasifiquen erróneamente las amenazas o las pasen por alto por completo. Esto implica alterar las firmas de malware para eludir el software antivirus basado en el aprendizaje automático o modificar los patrones de tráfico de red para evadir los sistemas de detección de intrusiones.

4. Descifrado de contraseñas

Los ciberdelincuentes desarrollan constantemente métodos cada vez más sofisticados para descifrar contraseñas. Ahora es posible descifrar contraseñas simples sin mucho esfuerzo utilizando la inteligencia artificial. La solución de IA PassGAN descifró más de la mitad de las contraseñas comunes introducidas en su sistema en menos de 60 segundos. Las herramientas avanzadas de descifrado de contraseñas con IA pueden descifrar el 81 % de las contraseñas comunes en un mes y la mayoría de estas cadenas cifradas en un día. Los atacantes pueden llevar a cabo una serie de actividades delictivas con la información obtenida al descifrar contraseñas. Esto incluye, por ejemplo, robar datos bancarios o utilizar la información para suplantar identidades y cometer fraudes.

Principales amenazas de IA por parte de los ciberdelincuentes Ataques dirigidos a seres humanos

1. Phishing

El phishing es una forma de ingeniería social en la que el hacker se hace pasar por un contacto de confianza y engaña a la víctima para que revele información confidencial, como contraseñas o datos bancarios. Se generan correos electrónicos, SMS u otros mensajes. En el pasado, los correos electrónicos de phishing podían estar mal redactados, pero la aparición de herramientas como ChatGPT ha facilitado a los hackers el envío de correos electrónicos fraudulentos convincentes que imitan fielmente el tono, el lenguaje y la apariencia de los mensajes legítimos. Los ciberdelincuentes también pueden utilizar la IA para personalizar los correos electrónicos maliciosos basándose en datos dispersos en el dominio público a través de Internet, lo que los hace parecer más realistas y difíciles de detectar. Una investigación de SoSafe muestra que los ciberataques generados por IA tienen un gran éxito: casi el 80 % de las personas abren los correos electrónicos de phishing escritos por IA. En diciembre de 2023, los hackers orquestaron una campaña de phishing dirigida contra Activision, la empresa de videojuegos creadora de la serie Call of Duty. Utilizando IA, los atacantes violaron la seguridad de Activision creando mensajes SMS de phishing específicos, que finalmente engañaron a un miembro del personal de RRHH que cayó en la trampa.

2. Vishing

El vishing (phishing de voz) es una subforma del phishing y se lleva a cabo a través de llamadas telefónicas en las que los actores maliciosos intentan ganarse la confianza de sus víctimas y persuadirlas para que realicen una acción o revelen información confidencial. Los ataques de vishing son potencialmente más peligrosos que los ataques de phishing habituales, ya que establecen una conexión personal con la víctima objetivo, lo que hace que el escenario sea mucho más creíble. También en este caso, la evolución de la IA está dando lugar a métodos de fraude cada vez más pérfidos y creíbles. Los ataques de vishing tradicionales utilizan grabaciones de voz automatizadas y llamadas automáticas, pero un atacante que utilice IA puede clonar voces y comunicarse en directo con las víctimas. Por ejemplo, el motor de voz de OpenAI puede clonar la voz de otra persona utilizando un simple clip de audio de 10-15 segundos. El ciberataque a MGM Resorts, que causó alrededor de 100 millones de dólares en daños, se llevó a cabo mediante una llamada de vishing en la que el atacante se hizo pasar por un empleado normal y llamó al servicio de asistencia de MGM para obtener credenciales.

3. Deepfakes

Un deepfake es una imagen, un vídeo o una grabación de audio generados digitalmente. La IA generativa ha facilitado a los actores maliciosos la creación de deepfakes con relativamente poco esfuerzo. Como parecen tan convincentemente reales, incitan a las personas a revelar información confidencial o a realizar transacciones monetarias, como en el ejemplo mencionado al principio de este artículo. El número total de vídeos deepfake en Internet en 2023 fue de 95 820, lo que supone un aumento del 550 % en comparación con 2019. Los estafadores de vishing también utilizan cada vez más los deepfakes en forma de contenido de audio falso. Los deepfakes también pueden utilizarse para la desinformación, con el objetivo de difundir información errónea, recomendaciones falsas, aprobaciones falsas de proveedores o propaganda. Por ejemplo, en 2024 se utilizó una imagen deepfake del actor de Hollywood Tom Hanks para promocionar una estafa de productos dentales.

4. Suplantación de identidad (robo de identidad)

Cuando los estafadores engañan a sus víctimas para que les entreguen datos confidenciales y crean deepfakes o clones de voz, que luego utilizan en ataques de vishing, por ejemplo, suelen utilizar identidades robadas, que recrean de forma engañosamente realista con la ayuda de la IA y crean contenidos de vídeo y audio inquietantemente realistas. Esto puede basarse en personas del entorno inmediato o en organizaciones de confianza, como bancos u organismos gubernamentales. El mayor realismo de estos robos de identidad hace que a las víctimas les resulte cada vez más difícil distinguir entre el contenido real y el falso, lo que las hace vulnerables a diversas formas de fraude y manipulación.

Deep fake, AI and face swap in video edit. Deepfake and machine learning. Facial tracking, detection and recognition technology. Digital identity interchange. Computer software mockup. Fraud picture.
ai, artificial, computer, concept, creative, deep, deepfake, detection, digital, edit, editing, editor, effect, eye, face, facial, fake, fraud, graphic, hoax, human, identity, innovation, intelligence, interchange, laptop, learning, machine, man, media, mimic, mockup, people, person, picture, production, recognition, screen, social, software, special, swap, synthetic, tech, technology, track, tracking, video, visual, young

Combatir la IA con IA

Se deben adoptar diferentes medidas de seguridad para defenderse de los ataques, dependiendo de a qué objetivos —tecnologías o seres humanos— se dirijan los ataques basados en la IA.

Las medidas de ciberseguridad convencionales suelen ser insuficientes a la hora de detectar y defenderse de los ataques de IA. Dependen en gran medida de la detección basada en firmas y de sistemas basados en reglas que no están preparados para la naturaleza dinámica y evolutiva de los ciberataques de IA.

Por lo tanto, tiene sentido vencer al enemigo con sus propias armas: la IA puede ser un poderoso aliado en la protección de los activos IT. Deben utilizarse mecanismos de detección avanzados que utilicen el aprendizaje automático (ML) y la IA para detectar anomalías y patrones sutiles que pueden pasar desapercibidos con los métodos tradicionales. Herramientas como el procesamiento del lenguaje natural (NLP) y el reconocimiento de imágenes detectan amenazas en varios idiomas y formatos.

A continuación, se incluyen una serie de sugerencias que todas las empresas pueden utilizar para ayudar a planificar sus defensas y hacer que su IT sea más segura:

  1. Implementar sistemas de defensa mejorados con IA: combatir las amenazas mediante la implementación de soluciones de seguridad mejoradas con IA. Estas incluyen sistemas avanzados de detección de amenazas, gestión automatizada de parches y herramientas de supervisión de redes basadas en IA que detectan y responden a las anomalías en tiempo real.
  2. Realizar auditorías de seguridad y pruebas de penetración periódicas: realiza evaluaciones frecuentes del sistema, incluidas pruebas de penetración impulsadas por IA. Estas pueden descubrir vulnerabilidades que los métodos tradicionales podrían pasar por alto y proporcionar información sobre cómo se podría utilizar la IA para explotar los sistemas.
  3. Actualizaciones periódicas: para dificultar los ataques de evasión, es necesario actualizar y mejorar continuamente los algoritmos de IA para adaptarse a las nuevas técnicas de evasión.
  4. Entrenamiento adversarial: los sistemas de defensa basados en IA se entrenan con ejemplos adversarios para mejorar su resistencia frente a los ataques.
  5. Implementación de tecnologías de engaño: implementa sistemas de señuelo y datos falsos para confundir y despistar a los ataques impulsados por IA. Estas herramientas pueden detectar amenazas de forma temprana y recopilar información valiosa sobre las tácticas de los atacantes.
  6. Desarrollo de un plan de respuesta a incidentes específico para IA: revisa tus estrategias de respuesta a incidentes para hacer frente a la velocidad y la complejidad de los ataques impulsados por IA. Esto puede implicar protocolos de respuesta automatizados y el uso de los servicios de equipos especializados formados en análisis forense de IA.
  7. Implementación de un marco de seguridad Zero Trust: funciona según el principio de «nunca confiar, siempre verificar» y es un enfoque excelente para mejorar la seguridad. En lugar de dar por sentado que todo lo que hay dentro de la red de una organización es seguro, Zero Trust requiere una verificación continua de todas las usuarios, dispositivos y conexiones, independientemente de su ubicación.
  8. Uso de la autenticación de dos factores: la introducción de la autenticación de dos factores aumenta la seguridad, ya que los empleados tienen que confirmar su identidad de dos maneras diferentes para poder acceder a los recursos y datos.
  9. Intercambio colaborativo de información sobre amenazas: únete a redes de intercambio de información sobre amenazas a nivel sectorial. Al poner en común los conocimientos sobre los ataques impulsados por la IA, las empresas pueden adelantarse a las amenazas emergentes y beneficiarse de estrategias de defensa colectivas.

Mejorar la formación y la concienciación de los empleados

Por mucha tecnología que se utilice para protegerse contra los ataques basados en la IA, el mayor riesgo para la seguridad sigue siendo el factor humano. Cuando se utilizan las emociones y el engaño para ganarse la confianza y engañar a las personas para que entreguen información confidencial, incluso las tecnologías más sofisticadas solo pueden ayudar de forma limitada.

Por lo tanto, es aún más importante que los empleados sean conscientes de las formas de ciberataques y reciban formación periódica para ayudarles a reconocer y notificar las posibles amenazas. Los empleados deben recibir formación para verificar cuidadosamente todos los intentos de contacto (correo electrónico, SMS, llamadas telefónicas, etc.) y asegurarse de que conocen al remitente y cuestionan el contexto de los mensajes que se les envían, especialmente cuando se trata de transacciones monetarias en las que se puede recurrir a una conversación cara a cara o una llamada telefónica para verificar la información.

La combinación de herramientas de inteligencia artificial con equipos humanos garantiza una protección más completa contra los ciberataques sofisticados. Otras medidas pueden ser:

  • Adaptar los filtros de correo electrónico y URL existentes.
  • Enviar solicitudes de retirada de sitios web y servidores web.
  • Notificar el bloqueo de números de teléfono a los proveedores de telefonía móvil.
  • Notificar los datos bancarios de los ciberdelincuentes, las autoridades encargadas de la lucha contra el blanqueo de capitales o las cuentas de correo electrónico legítimas pirateadas a los respectivos proveedores.

Cómo puede ayudar Konica Minolta

Dado que muchas empresas y organizaciones carecen de conocimientos y experiencia en ciberseguridad a nivel interno y pueden tener dificultades para cubrir adecuadamente estas funciones por sí mismas, el equipo de expertos de Konica Minolta puede ofrecerte apoyo para subsanar esta falta de competencias.

A nivel tecnológico, Konica Minolta ofrece Workplace Intrusion Patrol, un servicio de seguridad gestionado que reconoce y combate las amenazas a la ciberseguridad. Este servicio, gestionado íntegramente por los expertos de Konica Minolta, no requiere competencias internas en ciberseguridad ni hardware. Workplace Intrusion Patrol protege una amplia gama de áreas: terminales como servidores, ordenadores y dispositivos móviles, y también elimina los riesgos derivados de correos electrónicos de phishing, enlaces y archivos adjuntos maliciosos, cuentas de usuario filtradas, etc. Los algoritmos avanzados de IA analizan continuamente los flujos de datos para detectar amenazas o anomalías, tomando medidas automáticamente o recurriendo al Centro de Operaciones de Seguridad (SOC) de Konica Minolta para un análisis más detallado. Si se propaga un ataque sigiloso, el equipo del SOC colabora con otros especialistas en seguridad para mitigar el incidente.

Konica Minolta también ofrece formación en seguridad para concienciar y mejorar la comprensión de las cuestiones relacionadas con la seguridad de la información entre tu equipo. La formación se adapta específicamente a las necesidades de tu empresa y puede incluir sesiones de formación tradicionales sobre seguridad de los datos, charlas en directo sobre piratería informática, campañas de concienciación y otras iniciativas.

Compartir:

Valora este artículo