Lola Flores dice olé y los ciberdelincuentes dan palmas

Lola floresLola Flores protagoniza un anuncio en el que se utiliza la tecnología deepfake para recrear el rostro, la voz y los gestos de la recordada artista para reivindicar la cultura y la diversidad de Andalucía.

La adopción de tecnologías como la inteligencia artificial (IA) puede aportar grandes dosis de innovación en determinados sectores y profesiones, pero también puede comprometer la ciberseguridad.

Para crear esta campaña para la marca Cruzcampo, protagonizada por la añorada Lola Flores, la agencia publicitaria Ogilvy ha empleado la técnica deepfake, que permite crear audios y vídeos falsos a partir de muestras ya existentes que luego pueden ser manipuladas para unos determinados fines. Como guiño publicitario, funciona y conecta con el público rápidamente que, tras la sorpresa inicial, comprende que se trata de una recreación, pero este uso de la IA puede entrañar también ciertos riesgos de desinformación o fraude entre los usuarios cuando se da en otros contextos.

Deep se refiere a deep learning, uno de los procedimientos de aprendizaje de las inteligencias artificiales. Mientras que fake simplemente significa «falso». A los vídeos deepfake se dedicó hasta un canal en ‘Reddit’, donde cualquiera podía publicar sus ‘creaciones’. En febrero de 2018, la plataforma decidió cerrarlo, tras las numerosas protestas recibidas.

El deepfake puede ser un grave problema al que debemos plantar cara si no queremos caer en la desinformación. Existen numerosas iniciativas que tratan de frenar esta tecnología, entre ellas, el grupo de trabajo activado por el diario ‘The Wall Street Journal’ cuyo objetivo es desenmascarar estos bulos que, a veces, son demasiado creíbles.

lola flores y la ciberseguridad

En el panorama de la ciberseguridad, la IA está facilitando mucho las cosas a los cibercriminales, ayudándoles a crear nuevas amenazas. Si bien la técnica de deepfake aún no se ha implementado de forma generalizada como ciberataque, sí que se reportado su uso en casos de compromiso de correo electrónico corporativo (BEC). El ejemplo más notable hasta la fecha se produjo en 2019 con un deepfake que simulaba un audio del CEO de la filial de una compañía energética británica, mediante el cual los cibercriminales consiguieron defraudar unos 220.000 euros. Desde Proofpoint, empresa de ciberseguridad y cumplimiento normativo, Fernando Anaya, Country Manager, comenta que «dada la rapidez con la que la tecnología deepfake está evolucionando y a medida que los cibercriminales continúan innovando, debe ser tenida más en cuenta por parte de organizaciones y usuarios, especialmente si se demuestra su eficacia. Si la IA se vuelve cada vez más convincente en su capacidad de imitar la comunicación humana, es probable que los ataques de esta naturaleza sean cada vez más comunes».

El uso de la tecnología deepfake como una herramienta más del arsenal de ataques BEC puede ayudar a los atacantes a la hora de conseguir cuantiosas sumas de dinero mediante transferencias fraudulentas. Estos ataques suelen depender en gran medida de la ingeniería social y las comunicaciones por correo electrónico. El principal objetivo de los cibercriminales es convencer a alguien de una organización para que envíe dinero a cuentas bajo su control. Para conseguirlo, los atacantes se hacen pasar por una persona en la que el destinatario confía y solicitan el dinero con urgencia y autoridad para agilizar la transacción, eludiendo asimismo los controles de seguridad habituales. La clave del éxito de estas estafas radica en la confianza que el destinatario deposita en el solicitante y las presiones mediante ingeniería social.

medidas de protección

«Añadir un audio o vídeo falsos a esta mezcla puede aumentar la potencia y la efectividad de estos dos factores», apunta Anaya. «También puede abrir canales adicionales para los ataques BEC fuera del correo electrónico como, por ejemplo, las aplicaciones de chat del entorno empresarial. Mediante el deepfake, los atacantes pueden hacer que una solicitud de pago parezca todavía más legítima con una suplantación muy detallada y profunda del presunto solicitante, añadiendo un componente emocional a ese mensaje fraudulento».

 Para protegerse frente a estas amenazas, se debe implementar una estrategia de ciberseguridad centrada en las personas con procedimientos de verificación objetivos que ayuden a identificar adecuadamente a los supuestos solicitantes y confirmar la legitimidad de las solicitudes. «Es sumamente necesario formar a los empleados en las mejores prácticas de ciberseguridad a fin de que comprendan la importancia de pasar por los procesos adecuados para así asegurarse de tener múltiples aprobaciones antes de transferir una suma de dinero, sin importar lo urgente que parezca dicha solicitud», remarca el directivo de Proofpoint.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *