Los llamados 'deepfake' son videos generados a través de Inteligencia Artificial y pueden ser generados a través de un video real pero que son modificados, comentó Hiram Alejandro Camarillo Seekurity, Experto en Ciberseguridad.
En entrevista para XEU Noticias, Hiram Alejandro Camarillo explicó que cualquier persona puede grabar un video dando una explicación acerca de un tema, sin embargo, otra persona puede cambiar la imagen o la cara de quien aparece en el video.
"También pueden ser fotografías que son modificadas con Inteligencia Artificial que nos alteran la realidad, es decir, lo que estamos viendo no es real, hay formas y métodos para identificarlos, pero personas que no conocen o no saben estos métodos o estos pasos, simplemente es difícil hacer una distinción entre si el video es real o no".
Con respecto a cómo aplicar el "deefake" en las criptomonedas, el Experto en Ciberseguridad narró que lo que se hace, es engañar a los usuarios invitándolos a invertir, ya sea en algunas entidades o empresas.
Posteriormente, una vez que las personas observan los videos los delincuentes cibernéticos, invitan a darle clic al video o enlace, pero cuando eso ocurre, las víctimas son redirigidas a un sitio donde les piden información de sus tarjetas bancarias.
Indicó que lo que hace actualmente Facebook, Tik Tok y YouTube colocan pequeñas letras que dicen IA (Inteligencia Artificial) o creado con Inteligencia Artificial.
Hace un llamado a la gente para que no caiga en este tipo de estafas, por lo que si les muestran algún video o imagen en el que les ofrezcan generar más dinero de lo que están invirtiendo, lo primero que tienen que hacer es comunicarse con autoridades para saber si es verdad o no.