La inteligencia artificial (IA) ha revolucionado casi todos los sectores, desde la medicina hasta la educación, pasando por el comercio. Sin embargo, también ha traído consigo un aumento alarmante de los ataques de phishing. Los ciberdelincuentes aprovechan modelos de IA generativa para crear mensajes, webs y hasta llamadas que son casi imposibles de diferenciar de los originales. Así, el phishing se vuelve más sofisticado, personalizado y efectivo, lo que multiplica los riesgos para usuarios y empresas.
En este artículo, como abogados especializados en fraudes online y ciberseguridad, le explicamos cómo la IA ha cambiado el panorama del phishing, qué peligros conlleva y qué medidas puede tomar para protegerse.
Cómo la IA potencia los ataques de phishing
Tradicionalmente, los ataques de phishing eran fáciles de identificar por sus errores ortográficos, remitentes sospechosos y diseños mal logrados. Hoy, gracias a herramientas de IA como generadores de texto e imágenes, los estafadores pueden crear correos y páginas web que imitan a la perfección a bancos, empresas de mensajería o instituciones públicas.
La IA permite además personalizar los mensajes para cada víctima, analizando redes sociales y otros datos públicos para adaptar el contenido a su idioma, intereses y circunstancias personales, logrando un engaño más convincente.
Principales técnicas de phishing potenciadas por la IA
- Correos hiperealistas: generados por modelos de lenguaje que imitan perfectamente el tono y la estructura de correos oficiales.
- Deepfakes de voz o vídeo: estafas que utilizan audios o vídeos falsificados para suplantar a directivos o familiares.
- Chatbots maliciosos: programas que conversan con la víctima como si fueran un operador real para solicitar datos confidenciales.
- Falsificación de sitios web: con imágenes generadas por IA que reproducen al detalle el diseño de portales bancarios u organismos oficiales.
Ejemplo práctico del uso de IA en un phishing
Un empresario español recibe un correo perfecto, en su mismo estilo de comunicación, que simula ser de su banco. El mensaje incluye su nombre completo y hace referencia a una operación reciente, todo extraído de datos públicos y redes sociales. El enlace lleva a una web idéntica a la oficial, creada con IA. Al introducir sus credenciales, los atacantes acceden a su cuenta y realizan transferencias fraudulentas por miles de euros.
Riesgos añadidos de los ataques de phishing con IA
El mayor peligro es que los usuarios confíen en la apariencia profesional de los mensajes y páginas fraudulentas. Además, la velocidad a la que la IA puede generar miles de versiones personalizadas de un ataque hace que las soluciones de ciberseguridad tradicionales tengan más dificultad para detectar estos fraudes.
Otro riesgo es que las herramientas de IA son cada vez más accesibles y fáciles de usar, lo que permite a delincuentes sin conocimientos técnicos lanzar ataques complejos y dirigidos.
Cómo detectar un ataque de phishing potenciado por IA
- Correos extremadamente bien redactados que aún así incluyen peticiones inusuales como confirmar contraseñas o datos bancarios.
- Llamadas que imitan la voz de un conocido pero con frases robóticas o desincronizadas.
- Webs que parecen idénticas a las oficiales pero con pequeños detalles, como una URL ligeramente distinta.
- Mensajes que generan urgencia para que actúe rápido sin verificar la información.
Consejos para protegerse de los ataques de phishing con IA
- Revise cuidadosamente las URLs de los enlaces antes de hacer clic.
- Active la verificación en dos pasos en sus cuentas para añadir una capa extra de seguridad.
- No comparta información personal en redes sociales que pueda ser utilizada para personalizar ataques.
- Desconfíe de solicitudes urgentes que impliquen pagos o el envío de datos confidenciales.
- Actualice periódicamente sus dispositivos y utilice soluciones de ciberseguridad con filtros antiphishing actualizados.
Aspecto legal de los fraudes con IA en España
El Código Penal español tipifica como estafa agravada el uso de tecnología avanzada, como la IA, para cometer fraudes. Además, la suplantación de identidad con técnicas de deepfake puede conllevar penas de prisión superiores a los 6 años, especialmente si los afectados son empresas o administraciones públicas.
Si sospecha que ha sido víctima de un phishing potenciado por IA, le recomendamos recopilar pruebas (capturas, grabaciones, correos) y contactar con abogados especializados para denunciar y proteger sus derechos.