Los chatbots de IA se niegan a producir resultados que ‘Controvertido’: ¿Por qué es una cuestión de libertad de expresión?

Eve Oye… Ahora es sorprendente que nuestros supuestos jugadores estén utilizando la tecnología siempre que pueden para bloquear o restringir ideas y discusiones que consideran amenazantes para esos intereses. Sin duda, muchos lectores saben que el autocompletado de Google en las elecciones presidenciales de 2016 sugirió frases útiles para Hillary Clinton. (Incluso si los usuarios escriben información relacionada con frases desfavorables, como su colapso físico). Y viceversa para Trump. Nosotros y otros sitios independientes Muchos otros han aportado pruebas de cómo Google cambia su algoritmo. Para que nuestras historias sean más visibles en los resultados de búsqueda, tenga en cuenta que la ministra de Competencia de la UE, Margrethe Vestager, informa que solo el 1% de los usuarios de búsqueda hacen clic en el elemento número 10 o menos. Por Jordi Calvet-Bademunt. Investigador y académico visitante en ciencias políticas, Universidad de Vanderbilt y Jacob Mchangama, División de Investigación, Profesor de Ciencias Políticas Universidad de Vanderbilt Publicado originalmente en The Conversation Google recientemente apareció en los titulares de todo el mundo. Porque el chatbot Gemini creó imágenes de personas de color. En cambio, se trataba de gente blanca en un entorno histórico blanco. La herramienta de creación de imágenes de Adobe Firefly encontró un problema similar. Esto ha llevado a algunos críticos a quejarse de que la IA está «despertada». Otros sugieren que estos problemas son el resultado de esfuerzos equivocados para combatir el sesgo de la IA y servir mejor a las audiencias globales. Las discusiones sobre las inclinaciones políticas de la IA y los esfuerzos para combatir los prejuicios son importantes. Sin embargo, las conversaciones sobre la IA ignoran otra cuestión importante: el enfoque de la industria de la IA hacia la libertad de expresión es «libertad de expresión». ¿Y cumplir con los estándares internacionales de libertad de expresión o no? Somos investigadores de políticas que estudian la libertad de expresión. Como director ejecutivo e investigadores de The Future of Free Speech, un grupo de expertos independiente y no partidista de la Universidad de Vanderbilt, en un informe reciente descubrimos que la IA generativa tiene fallas importantes con respecto a la libertad de expresión y el acceso a los datos. un tipo de IA que crea contenido como texto o imágenes. Según la información recibida de la formación. especialmente Descubrimos que las políticas de uso de los principales chatbots no siguen los estándares de la ONU. En la práctica, esto significa que los chatbots de IA a menudo censuran su producción cuando tratan con empresas. que vio que había problemas contradictorios Si no existe una cultura fuerte de libertad de expresión Es probable que las empresas que producen herramientas innovadoras de IA también enfrenten un retroceso en estos tiempos cada vez más polarizados. Política de uso vaga y amplia Nuestro informe analiza las políticas de uso de seis importantes chatbots de IA, incluidos Gemini de Google y ChatGPT de OpenAI. Las empresas emiten políticas para establecer reglas sobre cómo las personas pueden usar sus modelos. Cuando se utiliza el derecho internacional de los derechos humanos como punto de referencia Vemos que las políticas de desinformación y discurso de odio de las empresas Esto es demasiado vago y amplio. Vale la pena señalar que el derecho internacional de los derechos humanos brinda menos protección a la libertad de expresión que la Primera Enmienda de los Estados Unidos. Nuestro análisis encontró que las políticas de incitación al odio de las empresas Existen prohibiciones muy amplias. Google, por ejemplo, prohíbe la creación de «contenido que promueva o promueva el odio», aunque el discurso de odio sea ofensivo y pueda causar daño. Pero la política está ampliamente definida. Y por muy vagas que sean las políticas de Google, pueden resultar contraproducentes. Mostrar cómo las políticas de uso vagas y amplias afectan a los usuarios. Probamos diferentes indicaciones. sobre temas controvertidos Le hicimos al chatbot preguntas como si a las mujeres trans se les debería o no permitir participar en eventos deportivos femeninos. ¿O sobre el papel del colonialismo europeo en la actual crisis climática y de desigualdad? No pedimos a los chatbots que creen discursos de odio que menosprecien a ningún partido o grupo. Tal como informaron algunos usuarios. Los chatbots se negaron a crear contenido para el 40% de los 140 mensajes que utilizamos. Por ejemplo, todos los chatbots se negaron a crear publicaciones que se opusieran a la participación de mujeres transgénero en torneos femeninos. Sin embargo, la mayoría publicó en apoyo de su participación. La libertad de expresión es un derecho básico en Estados Unidos. Pero el significado y la importancia de la libertad de expresión todavía son objeto de amplio debate. ¿Qué es una política vagamente redactada que se basa en la opinión personal del moderador sobre el discurso de odio? Los usuarios también pueden percibir que las reglas se aplican de manera injusta. e interpretar si las reglas son demasiado estrictas o demasiado indulgentes. Por ejemplo, el chatbot Pi prohíbe «contenido que pueda difundir información errónea». Sin embargo, las normas internacionales de derechos humanos relativas a la libertad de expresión generalmente protegen contra la información errónea. A menos que exista una razón convincente para la restricción, como la interferencia extranjera en las elecciones, se justifican las normas de derechos humanos. “Libertad para buscar, recibir y difundir información e ideas de todo tipo. Independientemente del alcance… a través de… cualquier medio… elegido” de conformidad con importantes convenciones de las Naciones Unidas. Determinar qué constituye información precisa también tiene implicaciones políticas. Los gobiernos de muchos países han adoptado reglas adoptadas en el contexto de la pandemia de COVID-19. para reprimir las críticas al gobierno no hace mucho India se enfrenta a Google después de que Gemini señalara que algunos expertos consideran fascistas las políticas del primer ministro indio, Narendra Modi. cultura de la libertad de expresión Hay razones por las que los proveedores de IA podrían querer implementar políticas de uso restrictivas. Es posible que quieran proteger su reputación y no participar en contenido controvertido. Si sirven a una audiencia global Es posible que deseen evitar contenido que sea inapropiado para cualquier región. Los proveedores de IA generalmente tienen derecho a adoptar políticas estrictas. No están sujetas a los derechos humanos internacionales; sin embargo, su poder de mercado las diferencia de otras empresas. Los usuarios que quieren crear contenido de IA a menudo terminan usando uno de los chatbots que analizamos, en particular ChatGPT o Gemini. Las políticas de estas empresas tienen un gran impacto en los derechos de acceso a los datos. Es probable que este impacto aumente con la integración de la IA generativa en la búsqueda. Procesadores de texto, correo electrónico y otras aplicaciones. Esto significa que a la sociedad le interesa garantizar que dichas políticas protejan adecuadamente la libertad de expresión. De hecho Ley de Servicios Digitales Estas son las normas europeas de seguridad en línea. Dado lo que se llama Las «plataformas en línea muy grandes» evalúan y mitigan Estos riesgos incluyen impactos negativos sobre la libertad de expresión y de información. Jacob Mchangama analiza la libertad de expresión en línea en el contexto de la Ley de Servicios Digitales de la UE de 2022. Este compromiso, que la Comisión Europea ha implementado de manera imperfecta hasta ahora. muestra que Con un gran poder viene una gran responsabilidad. No está claro cómo se aplicará esta ley a la IA generativa, pero la Comisión Europea ya ha dado los primeros pasos. Aunque los proveedores de IA no tienen obligaciones legales similares, Pero creemos que la influencia corporativa debería llevarlos a adoptar una cultura de libertad de expresión. Los derechos humanos internacionales proporcionan una guía útil sobre cómo equilibrar los diferentes intereses en juego. Al menos dos de las empresas en las que nos centramos, Google y Anthropic, han recibido este reconocimiento. rechazo total Es importante recordar que los usuarios tienen un grado significativo de autonomía sobre el contenido que ven en la IA creativa. Lo mismo ocurre con los motores de búsqueda. Los resultados que reciben los usuarios dependen en gran medida de sus notificaciones, por lo que la exposición de los usuarios al discurso de odio y a la desinformación de la IA generativa será generalmente limitada. a menos que busquen específicamente dicha información. Esto es diferente a las redes sociales, donde las personas tienen mucho menos control sobre sus feeds. Controles más estrictos La inclusión de contenido generado por IA puede verificarse en el nivel de las redes sociales a medida que el contenido se hace público. Para los proveedores de IA, creemos que las políticas de uso deberían ser menos restrictivas en cuanto a la información que los usuarios pueden generar que las políticas de las plataformas de redes sociales. Las empresas de IA tienen otras formas de abordar el discurso de odio y la información inexacta; por ejemplo, pueden proporcionar contexto o contrafactuales en el contenido. ellos crean. También es más personalizable por el usuario. Creemos que los chatbots deben evitar negarse a crear cualquier contenido a menos que exista una razón clara de interés público, como la protección contra material de abuso sexual infantil. que está prohibido por la ley La negativa a crear contenidos no sólo afecta a los derechos fundamentales de expresión y de acceso a la información. También pueden llevar a los usuarios a chatbots que se especializan en crear contenido de odio y cámaras de eco. Sería un resultado preocupante.

You May Also Like

More From Author

+ There are no comments

Add yours