Elon Musk.
Apu Gomes vía Getty Images

  • Elon Musk volvió a publicar un video deepfake de Kamala Harris en X el viernes por la noche.
  • El vídeo, una parodia del anuncio de campaña de Harris, parece haber sido alterado digitalmente.
  • La publicación de Musk carecía de contexto, lo que potencialmente violaba las reglas de X sobre medios sintéticos y manipulados.

El viernes por la noche, Elon Musk volvió a publicar un video deepfake de la vicepresidenta Kamala Harris en X, una acción que puede violar la política de su propia plataforma sobre medios sintéticos y manipulados, informó The New York Times.

El video fue publicado originalmente por el usuario @MrReaganUSA, quien señaló que el clip era una «parodia» del primer anuncio de campaña de Harris desde que se convirtió en la presunta candidata del Partido Demócrata para las elecciones presidenciales de 2024.

El clip parece haber sido alterado digitalmente para agregar una nueva voz en off que suena como Harris.

En el video, la voz en off editada dice: «Me seleccionaron porque soy la contratación más diversa. Soy mujer y persona de color, así que si criticas algo de lo que digo, eres sexista y racista».

La voz en off engañosa también llama a Biden senil y dice que Harris y Biden son marionetas del «estado profundo».

En su publicación del clip, que ha sido visto más de 117 millones de veces, Musk no mencionó que el video había sido editado y solo escribió: «Esto es increíble 😂».

Y eso puede entrar en conflicto con la política de X sobre medios sintéticos y manipulados, que establece: «No puedes compartir medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a las personas y provocar daños («medios engañosos»)».

X dice que para que la empresa tome medidas y elimine o etiquete una publicación que viole esa política, debe «incluir medios que estén alterados de manera significativa y engañosa», «compartidos de manera engañosa o con un contexto falso» o que puedan causar «confusión generalizada sobre cuestiones públicas».

La compañía dice que considerará factores que incluyen «si hay alguna información visual o auditiva (como nuevos fotogramas de video, audio doblado o subtítulos modificados) que se haya agregado, editado o eliminado y que cambie fundamentalmente la comprensión, el significado o el contexto de los medios».

El auge de los deepfakes

Los deepfakes utilizan inteligencia artificial para reemplazar la imagen de una persona con la de otra en un video o audio.

Los estudios han demostrado que las falsificaciones de audio son relativamente fáciles de crear, pero son difíciles de detectar.

Numerosos políticos ya han sido víctimas de esta tecnología en el pasado, lo que pone de relieve su potencial para causar estragos en épocas electorales.

En un vídeo que circuló en las redes sociales el año pasado, Hillary Clinton pareció dar un apoyo sorpresa al gobernador de Florida, Ron DeSantis. Sin embargo, se reveló que el vídeo había sido generado por inteligencia artificial, informó Reuters.

Biden también fue víctima de una falsificación profunda luego de su anuncio de que abandonaba la carrera electoral presidencial de 2024.

Un video en las redes sociales parece mostrar al presidente atacando a sus críticos y maldiciéndolos. Pero, una vez más, las imágenes eran una falsificación, según la agencia de noticias AFP.

Share.
Leave A Reply