Falsar la realidad

Las redes se han llenado de vídeos cortos llamativos, polémicos, espectaculares… imposible no clicar. Sin embargo, cuando los vemos, hay algo extraño: un movimiento poco natural, una luz que no acaba de encajar, un estética IA. Son vídeos cortos que habitan en el “valle inquietante”: ni lo suficientemente artificiales ni lo suficientemente reales.

En muy poco tiempo –semanas– han estallado las plataformas de generación de vídeo con IA. Google ha presentado Veo, Meta ha lanzado Vibe y OpenAI, Sora 2 (de momento sólo está disponible oficialmente en Estados Unidos). Sistemas entrenados con millones de horas de vídeo: con noticiarios, partidas de videojuegos, directos de influenciadores, películas, series animadas y vídeos cortos que hemos colgado en redes.

Meta AI tiene nuevo divertimento de vídeos hechos con IA.

Incrementa la tendencia de crar videos con IA.

Pueden simular la física con un realismo sorprendente –luz, sombras, gravedad, movimiento de partículas–y adoptar casi cualquier estilo visual: desde el animé o la estética Disney hasta el aspecto de una cámara de vigilancia, un informativo de tele, un videojuego o una película postapocalíptica. Tipo de cámara, ambiente sonoro, localización y otros detalles que antes requerían un equipo de rodaje completo, pueden ser generados con solo una instrucción escrita.

A la realidad le ha salido (más) competencia. Los vídeos de Sora llevan una etiqueta que indica su origen, pero ¿cuánta gente sabe qué significa Sora? Incluso aquellos que sabemos que estamos ante un vídeo sintético no podemos “des-ver” que ya hemos visto. Las imágenes virales de la supuesta detención de Donald Trump no ocurrieron, pero hicieron que fuera creíble la idea de que podía ser detenido. La diferencia entre ver y creer es mucho más fina de lo que pensamos.

La diferencia entre ver y creer es mucho más fina de lo que pensamos

Pero hay una segunda derivada, lo que los psicólogos llaman “el dividendo del mentiroso”. Cualquiera puede desacreditar una prueba audiovisual incómoda sacando el comodín de la IA, estrategia que también ha utilizado Donald Trump. Ante esto, un exceso de espíritu crítico puede degenerar en un escepticismo cínico: la idea de que nada es creíble por definición. Y ese terreno fértil para la duda sistemática es, paradójicamente, un escenario ideal para la manipulación.

Para sorpresa de nadie, han aparecido ya servicios que eliminan las marcas de agua de vídeos generados con Sora. Esto facilita que un clip sintético circule como si fuera una grabación real. Lo que no me esperaba es que salieran servicios que añaden marcas de agua de Sora a vídeos reales; un doble juego que erosiona aún más el papel notarial de la imagen.

Cualquiera puede falsar la realidad con un par de clics, ya sea quitando la marca de agua de un vídeo generado o poniéndosela a un vídeo real. A un vídeo real, o a un vídeo generado con IA al que se le ha quitado la etiqueta de generado con IA.Como con la IA, pero al revés.

También te puede interesar