Una pareja en Malasia recorrió más de 300 kilómetros por carretera, con un trayecto de aproximadamente cuatro horas, para conocer un teleférico en la zona de Perak que habían descubierto en un vídeo de TikTok.

Al llegar al pueblo de Kuak Hulu, se encontraron con que la atracción no existía: el contenido que habían visto había sido generado completamente con inteligencia artificial.

La noticia se viralizó luego de que una empleada del hotel local compartiera lo sucedido en redes sociales. Según su relato, la pareja, dos adultos, realizó el “check-in” y preguntó por el “Kuak Skyride”, un teleférico del cual ella jamás había oído hablar.

Relacionadas

Ante la insistencia, la trabajadora del hotel les explicó que se trataba de un pueblo tranquilo sin mayores atracciones turísticas y que probablemente habían sido engañados por un vídeo falso.

El vídeo engañoso

El vídeo en cuestión, eliminado posteriormente tras múltiples denuncias de usuarios por tratarse de contenido engañoso, fue publicado a finales de junio y mostraba lo que aparentaba ser un reportaje periodístico del canal TV Rakyat.

En él, una supuesta periodista presentaba el “Kuak Skyride” con imágenes del teleférico cruzando montañas, rodeado de paisajes naturales y grupos de turistas siendo entrevistados.

“El vídeo, para una persona sin un ojo tan entrenado, puede parecer real”, señaló el informe. Sin embargo, ni el teleférico ni la periodista existen.

Indignación y regreso a casa

Frustrada por la situación, la mujer de la pareja habría preguntado a la empleada del hotel por qué “le hacían esto a la gente” y amenazó con denunciar a la periodista del vídeo.

Al comprender que todo había sido una invención digital, ambos emprendieron el regreso a su hogar, evidenciando cómo la inteligencia artificial puede inducir a errores reales a quienes no identifican los signos de contenido manipulado.

Advertencias de especialistas sobre los riesgos de los deepfakes

Cecilia Danesi, abogada y directora del máster en Gobernanza Ética de la IA en la Universidad Pontificia de Salamanca, explicó que los engaños digitales no son nuevos, pero ahora están cobrando un nivel de sofisticación inédito: “Tenemos la posibilidad de replicar la voz o la imagen de una persona a la perfección, de una manera casi imperceptible para el ojo humano”, sostuvo en declaraciones a “La Nación”.

Por su parte, Fredi Vivas, ingeniero y docente de inteligencia artificial en la Universidad de San Andrés, señaló: “Nos encaminamos hacia un futuro en el que los vídeos ya no serán tan fiables. La mejor manera de protegernos de las noticias falsas y la desinformación es perfeccionar nuestro pensamiento crítico y siempre ser escéptico con el contenido que se ve en línea”.

Vivas añadió que los deepfakes suelen mostrar señales visibles de falsedad, como rasgos faciales borrosos o descoordinados.