Xataka – En su documental más visto, Netflix usa IA para generar contenido que no existe. Y esto ha abierto un debate ético

‘¿Qué hizo Jennifer’ es actualmente la película documental más vista de Netflix, y compite en el Top 10 con producciones como ‘The Batman’ o la actual número uno, la película de Aitana ‘Pared con pared’. Sin embargo un fugaz momento de su metraje pone en cuestión toda su documentación, echando por tierra su potente planteamiento true crime.

La película cuenta el caso real de los padres de la joven estudiante Jennifer, que son tiroteados cuando unos intrusos entran en su casa. Ella parece traumatizada por el suceso, pero pronto comienzan a aparecer piezas que no encajan en su declaración. Pronto conoceremos la historia de la hija, que para no decepcionar a sus exigentes padres, inventó toda una carrera triunfal en el instituto y la universidad. La película se basa en un caso real que ni siquiera está cerrado del todo, ya que hay pendientes apelaciones y muchas dudas en torno a cómo se desarrolló el juicio.

Por encima de estos debates tan propios de los productos true crime, sin embargo, se abre otra cuestión: la web Futurism detectó, a los pocos días del estreno, que en la película se usan como documentación gráfica un par de imágenes generadas por IA. Las supuestas fotografías tienen «todas las características de una foto generada por inteligencia artificial: manos y dedos destrozados, rasgos faciales deformes, objetos modificados en el fondo y un diente delantero demasiado largo».

Esto abre un debate importantísimo acerca del uso de la IA generativa. Porque si la herramienta ya está despertando discusiones éticas cuando se usa en la ficción (desde cómo su uso le quita trabajo a profesionales cualificados al origen de los materiales que emplea), en los documentales las preguntas se multiplican, ya que el espectador confía en que el material que se le está mostrando para apoyar la narración es auténtico.

La segunda de las imágenes del documental generada por IA

Esto, por supuesto, tiene ramificaciones de todo tipo: en ciertas ocasiones los documentales ficcionalizan hechos cuando no tienen material documental al que recurrir o como mero recurso estético / dramático. Por ejemplo, las dramatizaciones de crímenes tan habituales en las series televisivas documentales. Pero ahí, el lenguaje visual cambia para que, instintivamente, el espectador sepa que está ante una situación falseada. El problema de estas imágenes que presenta Netflix es que en ningún momento afirma que se trata de fotos falsas, pero se emplean para que el espectador empatice con la protagonista, que tenga pruebas de que era «una chica normal».

Rachel Antell, cofundadora de Archival Producers Alliance, y experta en el uso no-ético de imágenes por IA en documentales, cuenta a la web 404 que «incluso si se divulga que [un material] está generado por IA, puede salir de cualquier documental, llegar a Internet y a otras películas, y entonces forma parte para siempre del registro histórico». Y recomienda tomar una serie de medidas para garantizar el conocimiento del espectador: «Animamos a la gente a que sea transparente sobre el uso y, en algunos casos, cuando proceda, a que obtenga el consentimiento para recrear cosas que no han sucedido necesariamente».

Cabecera | Netflix

En Xataka | El AI Pin ha llegado a sus primeros usuarios. Y sus conclusiones no son nada esperanzadoras


La noticia

En su documental más visto, Netflix usa IA para generar contenido que no existe. Y esto ha abierto un debate ético

fue publicada originalmente en

Xataka

por
John Tones

.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *