Cómo usan la inteligencia artificial para robar por medio de videollamadas

1051
0
Compartir

Los deepfakes que asemejan el rostro de una persona es el recurso de los ciberdelincuentes

La inteligencia artificial está siendo usada por los ciberdelincuentes como una herramienta para estafar a las personas, suplantando la identidad de sus familiares o amigos. Hasta ahora la clonación de voz era la táctica más fuerte, pero ahora evolucionó a las videollamadas.

El diario El Mundo dio a conocer la historia de un hombre en China que recibió una videollamadade su esposa por WeChat, ella le estaba pidiendo cerca de 3.600 dólares porque había tenido un accidente de auto y debía solucionar la situación con el otro conductor.

Si bien la llamada se realizó desde una cuenta diferente a la original de la mujer, ante el parecido físico, el hombre de 73 años cayó en la trampa y entregó el dinero, porque la persona que estaba del otro lado tenía un gran parecido con el de su esposa en su forma de hablar y tono de voz, pero en realidad era una imitación generada por inteligencia artificial.

Según las investigaciones del caso, los ciberdelincuentes estuvieron siguiendo a la pareja durante un tiempo, aprovechando que ella tenía un canal de creación de contenido sobre cocina, que es popular en China, y de ahí obtuvieron los datos para generar la imagen con IA en una modalidad que se conoce como deepfake.

Las videollamadas son la nueva modalidad de engaño con IA al inspirar un alto grado de confianza en las víctimas. (Unsplash)Las videollamadas son la nueva modalidad de engaño con IA al inspirar un alto grado de confianza en las víctimas. (Unsplash)

Crecimiento y preocupación de estos casos

Así como la inteligencia artificial representa una oportunidad de crecimiento tecnológico para muchos sectores, lo es también para los delincuentes. Según reportes de The Washington Post, durante 2022 se presentaron 36.000 denuncias en Estados Unidos de personas que fueron engañadas a través de la clonación de voz.

Las llamadas han sido el principal método de estafa, porque los audios son un proceso de fácil creación en el que el atacante solo necesita tomar un par de frases de una persona para que el sistema aprenda sus patrones al hablar y su tono de voz. Luego el ciberdelincuente puede crear un audio diciendo cualquier cosa para engañar a otros.

En China este tipo de casos han generado preocupación en las autoridades, por lo que han usado Weibo, una red social local, para difundir mensajes de advertencia a los usuarios. “Sean cautelosos al dar información biométrica y que se abstenga de compartir videos y otras imágenes de sí mismos en Internet”, aseguran las autoridades.

Las estafas no solo se hacen para llamar a un familiar y pedir dinero, sino que también se toman los rostros de personas famosos, al haber un alto contenido en video de ellos en internet, para generar deepfakes y promocionar productos.

Las videollamadas son la nueva modalidad de engaño con IA al inspirar un alto grado de confianza en las víctimas. (Unsplash)Las videollamadas son la nueva modalidad de engaño con IA al inspirar un alto grado de confianza en las víctimas. (Unsplash)

Esta situación también ha generado una alerta en el sector privado. Brad Smith, presidente de Microsoft, dijo ante los legisladores en Estados Unidos, que esta es una de las preocupaciones de seguridad más grandes que hay en la empresa actualmente.

“Necesitamos tomar medidas para protegernos contra la alteración de contenido legítimo con la intención de engañar o defraudar a las personas mediante el uso de IA”, afirmó el directo.

Smith llamó la atención de las autoridades y los creadores de software. Por un lado, les pidió a los legisladores tomar medidas para garantizar la seguridad y el uso legítimo de las herramientas de inteligencia artificial.

Además, aseguró que es importante que el público pueda reconocer cuándo está ante un contenido generado por IA, para eso sugirió la implementación de etiquetas en imágenes y videos que entreguen esta información.

Fuente-infobae.

No hay comentarios

Dejar una respuesta