El gigante de las redes sociales Meta dice que su intento de frustrar las campañas de desinformación creadas mediante una IA de próxima generación en constante mejora está funcionando. Esto a pesar de la preocupación generalizada. El último estudio de Meta sobre el «comportamiento coordinado no confiable» en la plataforma se produce en medio de temores de que la IA generativa pueda usarse para engañar o confundir a la gente en las próximas elecciones en todo el mundo. Especialmente en los Estados Unidos “Lo que hemos visto hasta ahora son las protecciones que existen en nuestra industria. Esto incluye centrarse en el comportamiento más que en el fondo al contrarrestar las amenazas de los adversarios. Ya se ha implementado y parece ser eficaz”, dijo David Agranovich, Director de Política de Disrupción de Amenazas en Meta. “No vemos que la IA generativa se utilice de maneras muy complejas. Pero sabemos que estas redes seguirán desarrollando sus estrategias a medida que evolucione esta tecnología”. Facebook ha sido acusado de ser utilizado como una poderosa plataforma para la desinformación electoral durante años. Los funcionarios rusos utilizaron Facebook y otras redes sociales en Estados Unidos para avivar las tensiones políticas en las elecciones de 2016 ganadas por Donald Trump. La Unión Europea ahora está investigando Facebook e Instagram de Meta por sus fracasos en respuesta a la desinformación antes de las elecciones de la UE en junio. . Pero los expertos ahora también temen una desinformación sin precedentes por parte de los malos actores en las aplicaciones Meta, dada la facilidad con la que las herramientas generadas por IA como ChatGPT o el generador de imágenes Dall-E se pueden usar para crear contenido personalizado. En cuestión de segundos, Meta dijo que había visto «actores de amenazas». » poner a trabajar la IA para crear fotos, vídeos y mensajes falsos. Pero no hay imágenes realistas de los políticos. Según los informes, la IA generativa se utilizó para crear imágenes de perfil para cuentas falsas en la familia de aplicaciones de Meta, y una red de estafas de China aparentemente utilizó la tecnología para crear carteles para movimientos proactivistas. Ataque ficticio sij llamado Operación K, afirma el informe. Mientras tanto Una red israelí publicó lo que parecían ser comentarios generados por inteligencia artificial sobre la política de Medio Oriente en las páginas de Facebook de organizaciones de medios y figuras públicas, informó Meta, comparándolos con spam. Meta dijo esos comentarios Algunos de los cuales están en la página de la oposición estadounidense. Fue criticado en respuestas publicadas por usuarios reales. Meta dijo que la campaña, llamada propaganda, provino de una empresa de marketing político con sede en Tel Aviv. «Esta es un área interesante que hay que observar», dijo Mike Dvilyanski, jefe de investigación de amenazas en Meta. «Hasta ahora, no hemos visto ningún uso creativo de las herramientas de inteligencia artificial por parte de los adversarios». El informe también muestra que los esfuerzos del grupo están relacionados con Rusia. llamado El «doble» de utilizar la aplicación Meta para socavar el apoyo a Ucrania todavía existe. Pero esto se está interrumpiendo en la plataforma. “Doble Ha subido un nivel en los últimos 20 meses. sin dejar de ser grosero y extremadamente ineficaz a la hora de crear una audiencia real en las redes sociales”, según Meta, Meta también eliminó un grupo de cuentas inválidas de Facebook e Instagram que se originaron en China y que estaban dirigidas a comunidades sij más pequeñas en Australia y Canadá. , India, Pakistán y otros países. Publicaciones en esas cuentas falsas convocaron a protestas pro-sij.
Meta dice que el fraude con IA generativa está frenado, por ahora
Posted on by admin
You May Also Like
More From Author
Cenar con extraños: mi experiencia con TimeLeft
octubre 13, 2024
Kamala Harris presiona a Donald Trump por sus registros médicos
octubre 13, 2024
Liderando la transformación de la IA
octubre 13, 2024
+ There are no comments
Add yours