actualidad, opinion, variedades.

Un experto en inteligencia artificial avisa de cuál es «la mayor amenaza»: «Los delincuentes ya lo usan con éxito»…


Imagen representativa de contenido deepkfake.
Imagen representativa de contenido deepkfake.

20Minutos — El enorme desarrollo de las tecnologías de inteligencia artificial (IA) en los últimos años tiene también su lado negativo, y este es muy visible en una de sus aplicaciones: los llamados deepfakes.

Los deepfakes son vídeos fraudulentos que pueden mostrar a una persona haciendo o diciendo cosas que nunca ha hecho. Utiliza software de IA para clonar los rasgos de una persona y mapearlos sobre otra.

La IA se utiliza para muchos propósitos delictivos, pero los deepfakes son una de las amenazas más graves. Esto es lo que advierte Adam Pilton, consultor de ciberseguridad de CyberSmart, en declaraciones a The Sun.

«La IA puede generar correos electrónicos de phishing muy convincentes con facilidad y esto significa que los ciberdelincuentes no capacitados están ganando dinero», dice Pilton.

«El Centro Nacional de Seguridad Cibernética nos advirtió en su último informe anual que los ciberdelincuentes ya están utilizando la IA para desarrollar estafas y correos electrónicos de phishing cada vez más sofisticados«, prosigue.

«La amenaza seguirá creciendo a medida que la tecnología se desarrolle y las habilidades de los involucrados también aumenten. Sin duda, la mayor amenaza en evolución son los deepfakes«, continuó.

«La tecnología deepfake puede crear imitaciones realistas de personas en vídeo y audio«, explica Pilton, que añade que hay dos formas principales con las que los delincuentes utilizan deepfakes.

El primer uso delictivo de los deepfakes es engañarte para que cometas algún tipo de error de seguridad. Esto podría ser tan simple como que un delincuente use un deepfake para hacerse pasar por un ser querido y convencerlo de que le entregues algo de dinero.

O podrían hacerse pasar por un colega o incluso por tu jefe para conseguir dinero o información. «Los estafadores utilizan deepfakes para crear vídeos o mensajes de audio falsos y convincentes para manipular a las víctimas para que realicen acciones que normalmente no realizarían y las estafas de deepfakes ya se están utilizando con éxito en ataques de ingeniería social», explica Pilton.

«A principios de año, vimos a ciberdelincuentes utilizar el deepfake de un director financiero para engañar a un empleado para que les transfiriera 25 millones de dólares. Esto se inició a través de un correo electrónico de phishing, ante el cual el empleado se mostró escéptico», prosigue.

Informe mundial para mitigar los deepfakes generados por IA

«Sin embargo, cuando el empleado se unió a una reunión virtual y vio y escuchó al director financiero y a otras personas que reconoció, todas las sospechas desaparecieron», explicó.

«También estamos viendo que se utilizan llamadas telefónicas para crear respuestas altamente emocionales en las que nuestros seres queridos nos hablan y afirman que han sido secuestrados», dice Pilton.

«A finales de 2023 hubo un aparente aumento en las denuncias de este tipo de llamadas en todo Estados Unidos. No fueron sólo las voces familiares las que crearon la respuesta emocional. También se podían escuchar las voces de los presuntos atacantes, que instruían agresivamente al ser querido de la víctima a hacer lo que les decían antes de que el secuestrador hablara directamente con la víctima y le exigiera un rescate», prosigue.

La segunda forma en que se utilizan los deepfakes con fines nefastos es difundir noticias falsas. «El Foro Económico Mundial ha clasificado la desinformación como el mayor riesgo global en los próximos dos años», dice Pilton.

«Con una serie de elecciones acercándose para las democracias en todo el mundo, es fácil entender por qué. Seguimos viendo la capacidad de la IA para generar artículos de noticias falsos, publicaciones en redes sociales y otros contenidos que difunden información errónea», concluye.

nuestras charlas nocturnas.

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.