Cómo identificar videos generados por IA

Lo sentimos, pero si estás buscando una lista rápida de formas fáciles y confiables de identificar videos generados por IA, no la encontrarás aquí. Los días de la IA Will Smith han terminado comiendo espaguetis grotescamente. Ahora contamos con herramientas que pueden crear videos fotorrealistas convincentes con solo unos pocos clics.

Actualmente, el vídeo generado por IA sigue siendo relativamente nuevo en comparación con el texto, las imágenes y el audio generados por IA, ya que requiere una gran cantidad de datos de alta calidad para obtener todos los detalles correctamente y es un desafío. “Pero no existe ninguna barrera importante para obtener datos de alta calidad”, afirmó Siwei Liu, profesor de ciencias informáticas e ingeniería en la Universidad SUNY de Buffalo.

Esto significa que puede esperar que los videos generados por IA mejoren pronto y eliminen los artefactos obvios (defectos o imprecisiones) que caracterizan la creación actual de IA, como las transformaciones de caras y los objetos que cambian de forma. La clave para detectar vídeos generados por IA (o cualquier método de IA) es la alfabetización en IA. “Entendiendo que [AI technologies] está creciendo, y tener la idea básica de que ‘lo que estoy viendo podría ser generado por IA’ es más importante que, digamos, señales individuales”, dijo Liu, director del Laboratorio Forense de Medios de la UB.

Navegar por una Internet infestada de IA requiere el uso de conocimiento en línea y sentido común para determinar cuándo algo podría estar mal. Esta es su mejor defensa contra ser engañado por falsificaciones de IA, desinformación o simplemente basura de baja calidad. Es difícil desarrollarlo porque todos los aspectos del mundo en línea luchan por su atención. Pero La buena noticia es que los instintos de detección de la IA se pueden ajustar.

“Al leer [AI-generated images]Creemos que la gente puede mejorar su alfabetización en IA”, afirmó Negar Kamali, investigador de inteligencia artificial en la Kellogg School of Management de la Universidad Northwestern. guía Reconocimiento de imágenes generado por IA. “Aunque no he visto ningún artefacto [indicating AI-generation]mi cerebro inmediatamente piensa: ‘Oh, algo no funciona'”, añadió Kamali, que ha estudiado miles de imágenes generadas por IA. “Incluso si no encuentro el artefacto, no puedo decir con seguridad que sea real, y eso es todo. lo que queremos.”

A qué prestar atención: vídeos impostores y vídeos de texto a imagen

Antes de comenzar a identificar los vídeos generados por IA, debemos distinguir entre los diferentes tipos. Los vídeos generados por IA generalmente se dividen en dos categorías: vídeos impostores y vídeos generados por el modelo de difusión de texto a imagen.

Vídeos de impostores

Estos son videos editados por IA que involucran intercambio de rostros, donde el rostro completo de una persona es reemplazado por el de otra persona (generalmente una celebridad o un político) y obligado a decir algo falso (y sincronización de labios), donde la boca de la persona es sutilmente manipulada y reemplazada. con audio diferente.

Los vídeos de impostores suelen ser muy creíbles porque la tecnología existe desde hace tanto tiempo que se basan en imágenes existentes en lugar de crear algo desde cero. ¿Recuerdas esos vídeos profundamente falsos de Tom Cruise de hace unos años que se volvieron virales porque eran muy creíbles? Trabajaron porque el creador Chris Ume se parecía mucho a Tom Cruise, trabajó con un imitador profesional de Tom Cruise y realizó muchos minutos de edición. entrevista Con Ume de The Verge. Existen muchas aplicaciones hoy en día que hacen lo mismo, e incluso… horrible – agregue un breve sonido que el creador encuentre en línea.

Dicho esto, si sospecha que un vídeo de IA es profundamente falso, hay algunas cosas que debe buscar. En primer lugar, fíjate en el formato del vídeo. Los videos deepfakes de IA generalmente se “filman” en un formato de cabeza parlante, donde solo se puede ver la cabeza y los hombros del hablante, sin manos visibles (más sobre esto en un minuto).

Busque defectos o artefactos alrededor de los límites del rostro para detectar un reemplazo facial. “Por lo general, se ven artefactos cuando la cabeza se mueve oblicuamente hacia la cámara”, dijo Hani Farid, experto en forense digital y profesor de informática en UC Berkeley. En cuanto a manos y brazos, “si la mano se mueve o algo bloquea la cara, [the image] comete un pequeño error, continuó Farid. Y sigue los movimientos naturales de las manos y el cuerpo. “Si estás viendo todo”, dice Farid en nuestra llamada de Zoom, con los brazos rígidos y a los costados, “y la persona no se mueve en absoluto, eso es falso”.

Velocidad de la luz triturable

Si sospecha de sincronización labial, concéntrese en la boca del sujeto, especialmente en los dientes. Falso “Hemos visto personas con dientes de forma irregular” o el número de dientes cambia a lo largo del vídeo, dijo Liu. Otro signo extraño a tener en cuenta es un “bamboleo de la mitad inferior” de la cara, dijo Liu. “Existe un procedimiento técnico que tiene que adaptarse completamente al rostro de esta persona”, afirmó. “Muevo mucho mi cara cuando hablo, y esa alineación, si tiene un poco de desalineación, el ojo humano puede notarlo”. Esto le da un efecto más fluido y gomoso a la mitad inferior del rostro.

Aruna Sankaranarayanan, asistente de investigación en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, dice que cuando se trata de conocimientos sobre inteligencia artificial, su mayor preocupación no es la profunda falsedad de los políticos más famosos del mundo, como Donald Trump o Joe Biden, sino las figuras importantes. quienes hablan de ellos. puede que no sea muy conocido. “La fabricación de ellos, la tergiversación de algunos hechos, si no sabes cómo se ven a menudo o cómo se ven, es muy difícil de negar”, dijo Sankaranarayanan. se presta atención al trabajo sobre falsificaciones políticas. Una vez más, entra en juego la alfabetización en IA; Se requiere algo de investigación para verificar o eliminar videos como este.

Vídeo de texto a imagen

Luego están los recién llegados atractivos: modelos de difusión de texto a imagen que generan videos a partir de instrucciones de texto o imágenes. OpenAI causó un gran revuelo cuando anunció Sora, su generador de vídeo de IA. Aunque aún no está disponible, los vídeos de demostración fueron suficientes para impresionar a la gente con sus meticulosos detalles, su vívido fotorrealismo y su suave seguimiento de sencillas instrucciones de texto.

Desde entonces, han aparecido otras aplicaciones que pueden convertir tus memes favoritos en GIF y escenas imaginativas que parecen haber llevado a todo un equipo CGI con un presupuesto de Disney. creadores de hollywood tienen razón al estar enojados por la aparición de modelos de texto a imagen probablemente capacitado para su trabajo y ahora amenazan con reemplazarlo.

Pero la tecnología aún no ha llegado a ese punto, ya que incluso esos vídeos de Sora pueden ser un poco ingeniosos y requerir una edición que requiere mucho tiempo. Los vídeos de demostración de Sora son una serie de ediciones rápidas, ya que la tecnología aún no es lo suficientemente buena para crear vídeos perfectos y más largos. Por eso hay que desconfiar especialmente de los clips cortos: “Si un vídeo dura 10 segundos, desconfía. Hay una razón por la que es corto”, dice Farid. “Básicamente, no se puede hacer ni un solo corte de un minuto del texto al vídeo”, continuó, añadiendo que esto podría mejorar en los próximos seis meses.

Farid también dijo que se debe prestar atención a las “inconsistencias temporales” como “añadir una historia a un edificio o cambiar el color de un automóvil, cosas que no son físicamente posibles”. “Y a menudo lo que está sucediendo pasa desapercibido”. Así que descubre los detalles de fondo. Es posible que veas objetos que son anormalmente lisos o curvos, o que cambian de tamaño a medida que la persona camina alrededor del edificio, dijo Liu.

Kamoli dice que hay que buscar “inconsistencias socioculturales” o pistas contextuales donde la realidad de la situación no sea convincente. “No ves las noticias de inmediato, pero tienes la sensación de que algo anda mal: una foto de Biden y Obama con trajes rosas” o El Papa con un plumífero de Balenciaga.

Dejando a un lado las pistas contextuales, la disponibilidad de artefactos realmente puede disminuir pronto. Y Wall Street está dispuesto a apostar miles de millones de dólares en ello. (Es decir, el capitalismo de riesgo no se sabe realmente para una valoración razonable de las nuevas empresas tecnológicas basada en evidencia sólida de rentabilidad).

Los artefactos pueden cambiar, pero la buena idea permanece.

Como Farid le dijo a Mashable, “habla conmigo dentro de seis meses y las cosas cambiarán”. Entonces, si confías en ciertas señales para verificar si un video fue creado por inteligencia artificial, puedes tener problemas.

El artículo de Liu de 2018 sobre la identificación de videos generados por IA porque los objetos parpadean falsamente ha sido ampliamente publicitado en la comunidad de IA. Como resultado, la gente empezó a buscar defectos en el parpadeo, pero con el desarrollo de la tecnología, los parpadeos naturales aumentaron. “La gente está empezando a pensar que si hay un buen parpadeo, no debe ser un gran engaño, y eso es un riesgo”, dijo Liu. “Realmente queremos crear conciencia, pero no quedarnos estancados en artefactos específicos, porque los artefactos están sujetos a cambios”.

Tomar una decisión sobre algo posible Ser creado por una IA “desencadena toda una secuencia de acciones”, dijo Liu. “¿Comprueba quién comparte esto? ¿Es esta persona creíble? ¿Hay otras fuentes con la misma historia y ha sido verificada por otros medios? Creo que estas son las contramedidas más efectivas contra los deepfakes”.

Para Farid, detectar videos generados por IA y falsificaciones falsas comienza con su fuente de datos. obtener el Imágenes generadas por IA Después de los huracanes Helene y Milton, se volvió viral en las redes sociales. La mayoría de ellos eran falsos, pero aun así tenían un impacto emocional en las personas. “Incluso si estas cosas no son buenas, eso no significa que no penetrarán, no significa que no afectarán la forma en que las personas reciben información”, dijo.

Tenga cuidado al recibir sus noticias a través de las redes sociales. “Si una imagen parece un clickbait, es un clickbait”, dijo Farid antes de agregar que se trata de alfabetización mediática. Piensa en quién publicó el vídeo y por qué se creó. “No puedes mirar algo en Twitter y pensar: ‘Oh, esto debe ser cierto, déjame compartirlo'”.

Si sospecha que hay contenido generado por IA, consulte otras fuentes para ver si también lo comparten o si todo parece igual. Como dice Liu, “un deepfake sólo parece real desde un ángulo”. Busque otros ángulos del ejemplo en cuestión. Farid recomienda sitios como Snopes y Politifact, que desacreditan la información errónea y la desinformación. A medida que todos continuamos navegando por el panorama de la inteligencia artificial que cambia rápidamente, hacer el trabajo y confiar en su instinto será fundamental.

Temas
Inteligencia artificial



Fuente