Meta exige esfuerzos de la industria para etiquetar el contenido generado por IA

6 min read


El mes pasado, en el Foro Económico Mundial en Davos, Suiza, Nick Clegg, presidente de asuntos globales de Meta, calificó un esfuerzo incipiente para detectar contenido generado artificialmente como “la tarea más urgente” que enfrenta la industria tecnológica en la actualidad.

El martes, Clegg propuso una solución. Meta dijo que promovería estándares tecnológicos que las empresas de toda la industria podrían utilizar para reconocer marcadores en material fotográfico, de vídeo y de audio que indicarían que el contenido se generó mediante inteligencia artificial.

Los estándares podrían permitir a las empresas de redes sociales identificar rápidamente el contenido generado con IA que se ha publicado en sus plataformas y permitirles agregar una etiqueta a ese material. Si se adoptan ampliamente, los estándares podrían ayudar a identificar contenido generado por IA de empresas como Google, OpenAI y Microsoft, Adobe, Midjourney y otras que ofrecen herramientas que permiten a las personas crear publicaciones artificiales rápida y fácilmente.

“Aunque ésta no es una respuesta perfecta, no queríamos que lo perfecto fuera enemigo de lo bueno”, dijo Clegg en una entrevista.

Añadió que esperaba que este esfuerzo fuera un grito de guerra para que las empresas de toda la industria adoptaran estándares para detectar y señalar que el contenido era artificial, de modo que fuera más sencillo para todos reconocerlo.

A medida que Estados Unidos entra en un año de elecciones presidenciales, los observadores de la industria creen que las herramientas de inteligencia artificial se utilizarán ampliamente para publicar contenido falso para desinformar a los votantes. Durante el año pasado, la gente utilizó la inteligencia artificial para crear y difundir videos falsos del presidente Biden haciendo declaraciones falsas o incendiarias. La oficina del fiscal general de New Hampshire también está investigando una serie de llamadas automáticas que parecían emplear una voz de Biden generada por IA que instaba a la gente a no votar en una primaria reciente.

Meta, propietaria de Facebook, Instagram, WhatsApp y Messenger, se encuentra en una posición única porque está desarrollando tecnología para estimular la adopción generalizada de herramientas de inteligencia artificial por parte de los consumidores y, al mismo tiempo, es la red social más grande del mundo capaz de distribuir contenido generado por inteligencia artificial. Clegg dijo que la posición de Meta le dio una visión particular de los aspectos del problema tanto de generación como de distribución.

Meta se centra en una serie de especificaciones tecnológicas llamadas estándares IPTC y C2PA. Son información que especifica si un medio digital es auténtico en los metadatos del contenido. Los metadatos son la información subyacente incorporada en el contenido digital que proporciona una descripción técnica de ese contenido. Ambos estándares ya son ampliamente utilizados por organizaciones de noticias y fotógrafos para describir fotografías o vídeos.

Adobe, que fabrica el software de edición Photoshop, y una serie de otras empresas de tecnología y medios han pasado años presionando a sus pares para que adopten el estándar C2PA y han formado la Iniciativa de Autenticidad de Contenido. La iniciativa es una asociación entre docenas de empresas, incluido The New York Times, para combatir la desinformación y “agregar una capa de procedencia a prueba de manipulaciones a todo tipo de contenido digital, comenzando con fotos, videos y documentos”, según la iniciativa.

Las empresas que ofrecen herramientas de generación de IA podrían agregar los estándares a los metadatos de los videos, fotos o archivos de audio que ayudaron a crear. Eso indicaría a redes sociales como Facebook, Twitter y YouTube que dicho contenido era artificial cuando se subía a sus plataformas. Esas empresas, a su vez, podrían agregar etiquetas que indicaran que estas publicaciones fueron generadas por IA para informar a los usuarios que las vieron en las redes sociales.

Meta y otros también exigen que los usuarios que publican contenido de IA indiquen si lo han hecho al subirlo a las aplicaciones de las empresas. No hacerlo da lugar a sanciones, aunque las empresas no han detallado cuáles podrían ser esas sanciones.

Clegg también dijo que si la compañía determina que una publicación creada o alterada digitalmente «crea un riesgo particularmente alto de engañar materialmente al público en un asunto de importancia», Meta podría agregar una etiqueta más destacada a la publicación para darle al público más información. información y contexto sobre su procedencia.

La tecnología de inteligencia artificial avanza rápidamente, lo que ha estimulado a los investigadores a tratar de mantenerse al día con el desarrollo de herramientas sobre cómo detectar contenido falso en línea. Aunque empresas como Meta, TikTok y OpenAI han desarrollado formas de detectar dicho contenido, los tecnólogos han encontrado rápidamente formas de eludir esas herramientas. El vídeo y el audio generados artificialmente han demostrado ser aún más difíciles de detectar que las fotografías con IA.

(The New York Times Company está demandando a OpenAI y Microsoft por infracción de derechos de autor por el uso de artículos del Times para entrenar sistemas de inteligencia artificial).

“Los malos actores siempre intentarán eludir cualquier estándar que creemos”, dijo Clegg. Describió la tecnología como una “espada y un escudo” para la industria.

Parte de esa dificultad surge de la naturaleza fragmentada de cómo las empresas de tecnología lo abordan. El otoño pasado, TikTok anunció una nueva política que requeriría que sus usuarios agregaran etiquetas a los videos o fotos que subieron y que fueron creados con IA. YouTube anunció una iniciativa similar en noviembre.

La nueva propuesta de Meta intentaría unir algunos de esos esfuerzos. Otros esfuerzos de la industria, como la Asociación sobre IA, han reunido a docenas de empresas para discutir soluciones similares.

Clegg dijo que esperaba que más empresas aceptaran participar en el estándar, especialmente de cara a las elecciones presidenciales.

«Sentimos particularmente fuerte que durante este año electoral, no estaría justificado esperar a que todas las piezas del rompecabezas encajen en su lugar antes de actuar», dijo.





Source link

You May Also Like

More From Author

+ There are no comments

Add yours