Durante los últimos meses, el auge de la Inteligencia Artificial generativa ha tomado por completo las redes sociales, con imágenes y videos creados con software especializado para recrear hasta la voz de personas.
Los más recientes avances en la IA han logrado generar imágenes casi idénticas a la realidad, incluso con voces y acentos de acuerdo con el país que se le indique, sin embargo, todavía no alcanza la perfección, por lo que aún hay detalles que se pueden observar para identificar los videos creados por inteligencia artificial.
La mayoría de los especialistas coincide en que la calidad de la imagen sigue siendo una de las claves más evidentes para detectar un video generado por IA. Si el metraje se ve ligeramente borroso, distorsionado o inconsistente en su textura, podría tratarse de un contenido sintético.
Pero esto puede ser engañoso: si el video aparenta haber sido grabado por una cámara de seguridad o un dispositivo antiguo, la falta de nitidez pasa inadvertida, y el usuario tiende a creer que es real.
Expertos sugieren buscar señales más sutiles:
• Textura de la piel demasiado uniforme o sin poros visibles.
• Movimiento del cabello que parece flotar de forma antinatural.
• Cambios repentinos en el fondo, como sombras que se desplazan o luces que parpadean sin razón.
Los videos que apelan a la ternura o la sorpresa, como bebés y perros en situaciones heroicas o conmovedoras, se viralizan fácilmente porque nadie sospecha de su origen.
Los videos manipulados con rostros y voces de personajes famosos se han convertido en una amenaza creciente. Figuras públicas aparecen recomendando inversiones, promoviendo productos o lanzando acusaciones que nunca pronunciaron.
Los videos generados por IA tienden a ser principalmente con enfoque de entretenimiento, de comedia o comerciales, sin embargo, entes políticos, así como gobiernos, partidos, grupos subversivos o delincuenciales han comenzado a utilizar la IA para generar videos propagandísticos, disuasores o completamente dedicados a la desinformación.
Es importante distinguirlos para no caer en pánico o en reacciones viscerales, en casos de videos de política, pero también para no caer en estafas, fraudes o extorsiones.
Videos de celebridades o políticos invitando a inversiones falsas, videos de familiares secuestrados, de desastres o emergencias que no ocurrieron en realidad, pueden generar reacciones adversas tanto de forma individual como colectiva.
-Personas con extremidades de más
-Bocas, ojos o movimientos sincronizados
-Movimientos irreales de telas, agua, árboles o animales
-Voces sintéticas
-Figuras deformes al fondo de los videos
-Logotipos de aplicaciones como Sora, RunwayML, InVideo AI, Synthesia, HeyGen, Pictory Lumen5, Veo, Kling AI, Pika, and Hailuo