Consejo técnico: cómo detectar imágenes deepfake generadas por IA

La suplantación de identidad mediante IA se está convirtiendo rápidamente en uno de los mayores problemas a los que nos enfrentamos en línea. Las imágenes, vídeos y audios fraudulentos están proliferando como resultado del aumento y el uso indebido de las herramientas de inteligencia artificial debido a la aparición de deepfakes casi todos los días. Mostrarles a todos, desde Taylor Swift hasta Donald Trump, es cada vez más difícil. Para distinguir lo que es real de lo que no lo es. Los programas de creación de vídeos e imágenes como DALL-E, Midjourney y Sora de OpenAI facilitan la creación de deepfakes a personas sin conocimientos técnicos. Simplemente escriba una solicitud. Entonces el sistema se separará. Estas imágenes falsas pueden parecer inofensivas. Pero también puede utilizarse para llevar a cabo fraude y robo de identidad o propaganda y manipulación electoral. He aquí cómo evitar ser engañado por los deepfakes: en los primeros días de los deepfakes, la tecnología estaba lejos de ser perfecta y a menudo dejaba un rastro de distorsiones. Los verificadores de datos señalaron imágenes que contenían errores obvios, como una mano con seis dedos. o gafas con lentes de diferentes formas, pero a medida que la IA mejora, se vuelve más difícil. Los consejos ampliamente compartidos, como buscar patrones de parpadeo antinaturales entre las personas en vídeos deepfake, ya no son válidos, afirma Henry Ajder, fundador de la consultora Latent Space Advisory y destacado experto en el campo. Muchas fotos falsificadas por IA, especialmente retratos, Tiene un brillo electrónico. Tiene un “hermoso efecto suavizante” que hace que la piel “luzca increíblemente brillante”, dice Ajder, aunque advierte que a veces la estimulación creativa puede eliminar este y otros signos. Se han realizado muchas distorsiones de IA para garantizar la uniformidad de las sombras y las luces. A menudo, el sujeto está bien enfocado y parece realista. Pero los elementos del fondo pueden no ser realistas ni hermosos. El intercambio de caras es uno de los métodos más comunes de falsificación. Los expertos recomiendan mirar de cerca los bordes del rostro. El color de piel del rostro coincide con el resto del rostro. ¿De la cabeza o del cuerpo? ¿Los bordes de la cara están nítidos o borrosos? Si se lo pregunta, el vídeo de la persona que habla ha sido editado. Mira sus bocas. ¿Los movimientos de los labios coinciden perfectamente con el sonido? Ajder sugiere mirar los dientes. ¿Es claro o borroso e inconsistente con su apariencia en la vida real? La empresa de ciberseguridad Norton afirma que es posible que el algoritmo no sea lo suficientemente complejo como para generar dientes individuales. Así que la falta de contornos para cada diente podría ser una pista. A veces el contexto importa. Considere si lo que ve es posible o no. El sitio web de periodismo Poynter sugiere que si ves a una figura pública haciendo algo que parece «exagerado, poco realista o fuera de lugar», podría ser profundamente falso. Por ejemplo, el Papa en realidad vestía una lujosa chaqueta acolchada, como en Praga. ¿Foto falsa? si el hace eso ¿No hay más fotografías o vídeos publicados por fuentes legítimas? Otro enfoque es utilizar la IA para combatir la IA. Microsoft ha desarrollado una herramienta de autenticación que puede analizar fotos o vídeos para dar una puntuación de confianza sobre si han sido manipulados o no. El FakeCatcher del fabricante de chips Intel utiliza un algoritmo. Se utiliza para analizar la píxeles de imágenes para determinar si son reales o falsas. Existen herramientas en línea que prometen detectar falsificaciones si carga archivos o pega enlaces a contenido cuestionable, pero algunas, como Microsoft Authenticator, solo están disponibles para socios selectos. no publico Esto se debe a que los investigadores no quieren señalar a los malos actores. Y les da una ventaja en la carrera armamentista falsa más amplia. El acceso abierto a las herramientas de detección puede hacer que las personas se sientan como si estuvieran «Tecnologías divinas que pueden apoderarse de nuestro pensamiento crítico» cuando necesitamos ser conscientes de sus limitaciones, afirmó Ajder. Dicho esto, la inteligencia artificial ha avanzado con Se están entrenando velocidades innovadoras y modelos de inteligencia artificial con datos de Internet para crear contenido de calidad cada vez mayor con menos errores. Eso significa que no hay garantía de que este consejo siga siendo válido incluso dentro de un año. Los expertos dicen que imponer esta carga puede ser peligroso. Que las personas se conviertan en Sherlocks digitales porque puede darles una falsa sensación de confianza, ya que es cada vez más difícil, incluso para el ojo entrenado, detectar deepfakes. © Copyright 2024 The Associated Press. Todos los derechos reservados. Este material no puede publicarse ni transmitirse. , reescrito o redistribuido sin permiso.

Source link

You May Also Like

More From Author

+ There are no comments

Add yours