La generación de IA puede dejar a los usuarios con la culpa de infringir los derechos de autor.

Se ha aclamado que la inteligencia artificial de próxima generación tiene el potencial de transformar la creatividad. Especialmente reduciendo las barreras a la creación de contenidos. Aunque a menudo se enfatiza el potencial creativo de las herramientas creativas de IA, Pero la popularidad de estas herramientas plantea dudas sobre la propiedad intelectual y la protección de los derechos de autor. Las herramientas de IA generativa como ChatGPT funcionan con un modelo de IA básico, o un modelo de IA entrenado en grandes cantidades de datos. La IA generativa está entrenada en miles de millones de piezas de Con datos tomados de texto o imágenes extraídas de Internet, la IA generativa utiliza métodos de aprendizaje automático muy potentes, como el aprendizaje profundo y el aprendizaje por transferencia en almacenes de datos. comprender las relaciones entre esos datos, como qué palabras tienden a seguir a otras, lo que permite a la IA generativa realizar una variedad de tareas que pueden imitar la percepción y el razonamiento. Un problema es que el resultado de las herramientas de inteligencia artificial puede ser muy similar al contenido protegido por derechos de autor. Además de cómo entrenar modelos generativos, el desafío de utilizar la IA generativa a escala es: Particulares y empresas ¿Cómo podemos ser considerados responsables cuando la producción de IA generativa viola la protección de los derechos de autor? Cuando la notificación resulta en una infracción de derechos de autor Investigadores y periodistas han planteado la posibilidad de estrategias de notificación selectivas. Las personas pueden crear texto, imágenes o videos que violen las leyes de derechos de autor. Las herramientas de IA comunes suelen mostrar imágenes, texto o vídeos, pero no proporcionan advertencias sobre posibles infracciones. Esto plantea la cuestión de cómo garantizar que los usuarios comunes de herramientas de inteligencia artificial no escapen inadvertidamente a la protección de los derechos de autor. El argumento legal presentado por las empresas de IA generativa es que la IA entrenada en obras protegidas por derechos de autor no infringe los derechos de autor. Esto se debe a que estos modelos no copian los datos de entrenamiento. En cambio, está diseñado para aprender las relaciones entre elementos de escritura e imágenes, como palabras y píxeles. Las empresas de inteligencia artificial, incluida Stability AI, fabricante del generador de imágenes Stable Diffusion, confirmaron que las imágenes de salida proporcionadas en respuesta a las indicaciones de esa imagen en particular son Es poco probable que sea similar a alguna imagen específica. en datos de entrenamiento Los creadores de herramientas de IA generativa sostienen que los comandos no reproducen los datos del entrenamiento. Esto debería protegerlos de reclamaciones por infracción de derechos de autor. Algunos estudios de validación han demostrado que Los usuarios finales de la IA generativa pueden emitir comandos que resulten en una infracción de los derechos de autor al producir obras que se parecen mucho al contenido protegido por derechos de autor. Establecer una violación requiere detectar una estrecha similitud entre los elementos expresivos de obras estilísticamente similares y su expresión original en la obra específica de ese artista. Los investigadores han demostrado que métodos como el entrenamiento de ataques de extracción de datos. Se trata de una estrategia de notificación selectiva. y memorización discreta, que engaña a los sistemas generales de IA para que revelen datos de entrenamiento. Cada muestra de entrenamiento se puede recuperar. Desde fotografías de personas hasta logotipos de empresas registradas. Los estudios de seguimiento, como el realizado por el informático Gary Marcus y el artista Reid Southern, proporcionan varios ejemplos en los que puede haber poca ambigüedad sobre el grado en que los modelos de IA que generan imágenes violan la protección de los derechos de autor. comparación que muestra cómo las herramientas creativas de IA pueden violar la protección de los derechos de autor. Cómo construir una valla Los académicos del derecho se refieren al desafío de desarrollar vallas antipiratería en las herramientas de inteligencia artificial como el “problema de Snoopy”. Cuanto más protegida por derechos de autor una obra protege su imagen, como el personaje de dibujos animados Snoopy, más probable es que las herramientas de inteligencia artificial la eliminen. Copiarlo se compara con copiar una imagen específica. Los investigadores de visión por computadora llevan mucho tiempo lidiando con el problema de detectar infracciones de derechos de autor, como logotipos plagiados o imágenes protegidas por patentes. Los investigadores también examinaron cómo la detección de logotipos podría ayudar a identificar productos falsificados. Estos métodos son útiles para detectar infracciones de derechos de autor. También pueden resultar útiles los métodos para establecer la procedencia y autenticidad del contenido. En cuanto al entrenamiento de modelos, los investigadores de IA han introducido métodos innovadores de construcción de modelos de IA para eliminar los datos protegidos por derechos de autor. Algunas empresas de IA, como Anthropic, han anunciado compromisos de no utilizar datos generados por los clientes para entrenar modelos avanzados, por ejemplo. Los métodos para la seguridad de la IA, como el equipo rojo (intentos de obligar a las herramientas de IA a comportarse de manera anormal) o garantizar que el proceso de entrenamiento del modelo minimice la similitud entre los resultados de la IA generativa y el contenido protegido por derechos de autor, también pueden ayudar. rol de control Los creadores humanos saben que deben rechazar solicitudes para producir contenido pirateado. ¿Podrían las empresas de IA construir vallas similares para la IA creativa? No existen pautas establecidas para construir tales barreras en la IA creativa. Y no existe ninguna herramienta ni base de datos pública. que los usuarios pueden consultar para crear una infracción de derechos de autor Aunque existen herramientas de este tipo Pero puede crear demasiada carga tanto para los usuarios como para los proveedores de contenidos. Esto se debe a que no se puede esperar que usuarios inocentes aprendan y sigan las mejores prácticas para evitar infringir contenido protegido por derechos de autor. Por lo tanto, los formuladores de políticas y las regulaciones tienen un papel para los formuladores de políticas. Puede ser necesaria una combinación de directrices legales y reglamentarias para garantizar las mejores prácticas en materia de seguridad de los derechos de autor. Por ejemplo, las empresas que crean modelos creativos de IA pueden utilizar filtros o limitar la salida del modelo para limitar la infracción de los derechos de autor. Del mismo modo Puede ser necesaria una intervención regulatoria para garantizar que los modeladores generales de IA construyan conjuntos de datos y entrenen modelos de una manera que reduzca el riesgo de que los resultados del producto infrinjan los derechos de autor de los creadores. Anjana Susarla es profesora Omura Saxena de Estudios Responsables. Sistemas de información Michigan State University The Conversation es una fuente independiente y sin fines de lucro de noticias, análisis y comentarios de expertos académicos. © The Conversation

Source link

You May Also Like

More From Author

+ There are no comments

Add yours