El contenido de abuso sexual infantil generado por IA puede superar las recomendaciones

5 min read

Un nuevo informe publicado el lunes por el Observatorio de Internet de la Universidad de Stanford. Cantidades masivas de material de abuso sexual infantil creado por inteligencia artificial amenazan con abrumar a los funcionarios que ya están restringidos por tecnología y leyes obsoletas. El año pasado, la nueva tecnología de inteligencia artificial facilitó a los delincuentes la creación de imágenes explícitas de niños. Ahora, investigadores de la Universidad de Stanford advierten que el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro, actúa como agencia coordinadora central. y recibe la mayor parte de su financiación del gobierno federal. Al carecer de los recursos para combatir la creciente amenaza, CyberTipline de la organización, fundada en 1998, es el centro de intercambio de información del gobierno federal para todos los informes de material de abuso sexual infantil en línea, o CSAM, y es utilizado por las agencias de aplicación de la ley para investigar delitos. Pero muchas de las recomendaciones recibidas están incompletas o llenas de imprecisiones. pequeño grupo de empleados La empresa todavía está luchando por mantenerse al día con el volumen. “Es casi seguro que en los próximos años CyberTipline se verá inundado de contenido de IA hiperrealista. Esto hace que sea más difícil para las fuerzas del orden identificar a niños reales. Es necesario ayudar a eso”, afirmó Shelby Grossman, una de las autoras del informe. El Centro Nacional para Niños Desaparecidos y Explotados está a la vanguardia de la lucha contra las nuevas imágenes de explotación sexual generadas por IA, una fuente de delitos emergentes. Designado por las fuerzas del orden En medio de una epidemia de fotografías de desnudos ultrafalsos que se difunden en las escuelas. Algunos observadores están trabajando para garantizar que dicho contenido se considere ilegal. Las imágenes CSAM generadas por IA son ilegales si contienen niños reales o si se utilizan imágenes de niños reales. Datos del tren, dicen los investigadores Pero las imágenes generadas sintéticamente que no contienen imágenes reales pueden protegerse como libertad de expresión. Según el autor de un informe, TikTok, Discord y el crowdfunding y tener mayor acceso a la tecnología Los investigadores de Stanford dijeron que la organización abrió el acceso a entrevistas con sus empleados y sistemas para que el informe muestre puntos débiles en el sistema que deben actualizarse. «A través de los años La complejidad de la denuncia y la gravedad de los delitos contra niños continúan evolucionando», dijo la organización en un comunicado. «Por lo tanto, aprovechar las soluciones tecnológicas emergentes en todos los procesos de CyberTipline significa que los niños están protegidos y los perpetradores aumentan «. Los investigadores de Stanford descubrieron que las organizaciones necesitan hacerlo. cambiar la forma en que funcionan las líneas de información para garantizar que las agencias encargadas de hacer cumplir la ley puedan determinar qué informes. En cuanto al contenido generado por IA, esto incluye garantizar que las empresas que informan sobre contenido potencialmente infractor en sus plataformas completen el formulario. Menos de la mitad de todos los informes enviados a CyberTipline fueron “procesables” en 2022 porque la empresa que informó la infracción no pudo proporcionar información. La información o las suficientes imágenes en los consejos se difunden rápidamente en línea y se han informado demasiadas veces. La línea de sugerencia tiene una opción para verificar si el contenido de la sugerencia podría ser un meme o no. Pero mucha gente no lo usa. En un día a principios de este año. Un millón de informes de abuso sexual infantil inundan la cámara de compensación federal. Durante semanas, los investigadores han intentado responder a este aumento inusual. Resulta que muchos de los informes involucran imágenes de memes que las personas comparten en plataformas para expresar su enojo. No es una intención maliciosa. Pero todavía consume importantes recursos de investigación. Esa tendencia empeorará a medida que se acelere el contenido generado por IA, dijo Alex Stamos, uno de los autores del informe de Stanford. «Destrúyanlos», dijo Stamos. Los centros para niños desaparecidos y explotados y los contratistas tienen restringido el uso de sus servicios en la nube. proveedor de servicios informáticos y necesita almacenar las imágenes en la computadora Los investigadores descubrieron que los requisitos dificultaban la construcción y el uso del hardware especializado utilizado para construir y entrenar modelos de IA para las investigaciones. Por lo general, las organizaciones no cuentan con la tecnología necesaria para utilizar software de reconocimiento facial a gran escala para identificar a víctimas y perpetradores. La mayor parte del procesamiento de informes sigue siendo manual.

You May Also Like

More From Author

+ There are no comments

Add yours