Preguntas y respuestas de expertos: ejecutivos de confianza y seguridad hablan sobre inteligencia artificial y moderación de contenido

Alex Popken fue durante mucho tiempo ejecutiva de confianza y seguridad de Twitter, que se centró en la moderación de contenido antes de renunciar en 2023. Fue la primera empleada en supervisar el negocio de publicidad de Twitter cuando comenzó en 2013. Es la vicepresidenta de confianza y seguridad en WebPurify. un proveedor de servicios de moderación de contenidos que trabaja con empresas. Para ayudar a garantizar que el contenido que las personas publican en sus sitios web cumpla con las reglas. Las plataformas de redes sociales no son las únicas que deben ser monitoreadas. Empresas orientadas al consumidor Desde minoristas hasta aplicaciones de citas y sitios web de noticias. ¿Necesita que alguien se deshaga del contenido no deseado? Ya sea discurso de odio acoso o ilegal Las empresas recurren cada vez más a la inteligencia artificial en sus esfuerzos, pero Popken señaló que los humanos siguen siendo importantes para el proceso. Popken habló recientemente con The Associated Press. La conversación ha sido editada para mayor claridad y extensión. Pregunta: ¿Cómo has visto el contenido? ¿Cambio de moderación en la década que lleva en Twitter? Respuesta: Cuando me uní a Twitter, la moderación de contenido todavía estaba en su infancia. Creo que incluso la confianza y la seguridad son conceptos que la gente apenas está empezando a comprender y a afrontar. La necesidad de moderar el contenido ha aumentado a medida que Porque varias plataformas Se los vio armados de una manera nueva. Recuerdo algunos de los acontecimientos clave de mi mandato en Twitter, por ejemplo, la interferencia rusa en las elecciones presidenciales estadounidenses de 2016, de la que tuvimos conocimiento por primera vez. Se ha comprendido significativamente que Sin filtrado de contenidos Es posible que tengamos malos actores que socaven la democracia. La necesidad de invertir en este ámbito es cada vez más importante. P: Muchas empresas. Incluidas las principales empresas de redes sociales, dependen de la IA para moderar el contenido. ¿Cree que la IA está en un punto en el que se puede confiar en ella? ¿Por qué? La moderación de contenido eficaz es una combinación de humanos y máquinas de IA, que es barata. Se ha utilizado con moderación durante muchos años. Capaz de resolver problemas según el tamaño. Entonces tienes un modelo de aprendizaje automático que está capacitado en diferentes políticas y puede detectar contenido. Pero al final Supongamos que tiene un modelo de aprendizaje automático que detecta la palabra «nazi». Hay muchas publicaciones que pueden criticar a los nazis o proporcionar conocimientos sobre los nazis en contraposición a la supremacía blanca. Por tanto, el problema de los matices y el contexto no puede resolverse. Y ahí es donde entra en juego la capa humana. Creo que estamos empezando a ver algunos avances realmente importantes. Esto facilitará el trabajo de los humanos y creo que la IA generativa es un buen ejemplo. A diferencia de los modelos tradicionales, los modelos de IA son mucho más capaces de comprender el contexto y los matices que sus predecesores. Pero aún Bueno, ahora tenemos un caso de uso completamente nuevo para nuestros revisores humanos. Se trata de moderar la producción generada por la IA, por lo que, en mi opinión, la moderación humana sigue siendo necesaria para el futuro de la silvicultura. P: ¿Puede hablarnos de algunas de las empresas de redes no sociales con las que trabaja? ¿Y qué tipo de moderación de contenido utilizan? R: Quiero decir, todo, desde la personalización hasta los productos minoristas. Imagínese permitir que la gente personalice sus camisetas, ¿verdad? Obviamente, desea evitar casos de uso en los que la gente abuse de eso y ponga cosas dañinas y odiosas en las camisetas. En realidad, cualquier cosa que tenga contenido generado por el usuario. hasta las citas online: ahí estás buscando cosas como pesca con gato y estafas. y garantizar que las personas sean quienes dicen ser. y evitar que las personas carguen imágenes inapropiadas, etc. Abarca muchas industrias. P: ¿Y han cambiado los problemas que está moderando? R: La moderación de contenido es un panorama en constante evolución. e influenciado por lo que está pasando en el mundo Influenciado por las nuevas tecnologías. desarrollando Está influenciado por malos actores que intentarán ingresar a estas plataformas de maneras nuevas e innovadoras. Como equipo de revisión de contenido Está intentando ir un paso por delante y predecir nuevos riesgos. Creo que hay un poco de mal pensamiento en este papel. Mientras lo piensas ¿Cuál es el peor escenario que puede pasar aquí? Y por supuesto evolucionan. Creo que la desinformación es un buen ejemplo de cómo se proporciona información errónea. Hay muchos y es difícil examinarlos. Es como el hervor del océano. Quiero decir, en realidad no se puede verificar todo lo que alguien dice, ¿verdad? Básicamente las plataformas La atención debe centrarse en la información errónea para que no cause daños en el mundo real. Y eso siempre está evolucionando. P: En términos de IA generativa, existe la idea apocalíptica de que va a destruir Internet. Y allí arriba habrá una IA falsa. ¿Sientes que eso va a suceder? R: Me preocupa la desinformación basada en la inteligencia artificial, especialmente durante una temporada electoral extremadamente importante en todo el mundo. Ya sabes, estamos viendo cada vez más medios sintéticos falsos y maliciosos en línea, lo cual es preocupante porque creo que la gente en general está pasando por momentos difíciles. Distinguir entre correcto y no. Pienso a medio y largo plazo. Si puedo controlarlo adecuadamente Y si hay una valla adecuada También creo que puede crear oportunidades para nuestros profesionales de la confianza y la seguridad. Imagínese un mundo en el que la IA sea una herramienta clave en la barra de herramientas de moderación de contenido. Para cosas como la inteligencia sobre amenazas, creo que será una herramienta realmente útil. Pero también se utilizará de forma incorrecta. Y ya lo estamos viendo. © Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

You May Also Like

More From Author

+ There are no comments

Add yours