OpenAI lanza un detector ‘Deepfake’ para investigadores de desinformación

3 min read

Mientras los expertos advierten que las imágenes, el audio y el vídeo creados por inteligencia artificial podrían influir en las elecciones de otoño, OpenAI está lanzando una herramienta diseñada para detectar contenido creado por su popular programa de visualización DALL-E, pero la empresa Prominent AI admite que esta herramienta es sólo la la punta del iceberg. de lo que se necesita para luchar contra los llamados deepfake en los próximos meses. Y el martes, OpenAI dijo que compartiría su nuevo detector de falsificaciones con un pequeño grupo. El grupo investiga la desinformación para poder probar la herramienta en situaciones del mundo real y ayudar a identificar formas de mejorarla. «Este es un nuevo comienzo de investigación», dijo Sandhini Agarwal, investigadora de OpenAI centrada en seguridad y políticas. «Eso era absolutamente necesario». OpenAI dijo que su nuevo detector fue capaz de identificar correctamente las imágenes creadas por DALL-E 3, la última versión, con una precisión del 98,8 por ciento, pero la compañía dijo que la herramienta no fue diseñada para detectar imágenes producidas por DALL-. E 3, la última versión. Otros generadores populares incluyen Midjourney y Stability, ya que este tipo de detector de deepfake se basa en la probabilidad. Entonces no hay manera de ser perfecto. Como otras empresas Organización sin ánimo de lucro Y el laboratorio académico OpenAI está trabajando para combatir el problema de otras formas. Al igual que los gigantes tecnológicos Google y Meta, la compañía se unirá al comité directivo de la Coalición para la Procedencia y Autenticidad del Contenido, o C2PA, un esfuerzo por desarrollar credenciales para contenido digital. El estándar C2PA es un tipo de «etiqueta nutricional» para imágenes y videos. y videos y clips de audio y otros archivos muestran cuándo y cómo se produjeron o cambiaron, incluido AIOpenAI. También dijo que está desarrollando formas de «marcar de agua» el audio generado por IA para que ahora pueda identificarse fácilmente. La compañía espera que estas marcas de agua sean difíciles de eliminar. La industria de la inteligencia artificial se enfrenta a una presión cada vez mayor para ser consciente del contenido que crean sus productos. Los expertos piden a la industria que impida que los usuarios creen contenidos engañosos y dañinos. y proponer métodos para rastrear la procedencia y distribución. En un año lleno de importantes elecciones en todo el mundo Pide encontrar formas de rastrear el linaje de este creciente contenido de IA Más desesperado En los últimos meses El audio y las imágenes ya han afectado las campañas políticas y las votaciones en países como Eslovaquia, Taiwán e India, y la nueva herramienta de detección de deepfake de OpenAI puede ayudar a eliminar el problema. Pero esto no resuelve el problema. Como dijo la Sra. Agarwal: En la lucha contra los deepfakes, «no existe una solución milagrosa».

You May Also Like

More From Author

+ There are no comments

Add yours