La asociación entre Apple y Baidu corre el riesgo de acelerar la influencia de China sobre el futuro de la IA generativa – The Diplomat

10 min read

Apple se reunió recientemente con empresas tecnológicas chinas sobre el uso de sus herramientas de inteligencia artificial (IA) personalizadas en el iPhone y un sistema operativo completamente nuevo para el mercado chino. La colaboración más probable parece ser con Ernie Bot de Baidu. Parece que si Apple va a integrar IA generativa en sus dispositivos en China, tendrá que ser la IA china. Es seguro que Apple adoptará modelos de IA chinos. Esto se debe en parte a las directrices sobre IA generativa publicadas por la Administración del Ciberespacio de China (CAC) en julio pasado. y las ambiciones más amplias de China de convertirse en un líder mundial en IA, aunque no sorprende que Apple, que ya cumple con las órdenes de censura y vigilancia para mantener el acceso al mercado en China, adopte su modelo de IA que garantiza tomar medidas contra el contenido. creado siguiendo las líneas del Partido Comunista. Pero también es un sorprendente recordatorio de la creciente influencia de China. Por encima de esta nueva tecnología ya sea directa o indirectamente Esta cooperación corre el riesgo de acelerar la influencia negativa de China en el futuro de la IA generativa, con implicaciones para los derechos humanos en un mundo digital. El momento de la IA Sputnik de China a menudo se atribuye al juego de Go. AlphaGo venció al chino Ke Jie, el mejor jugador de Go del mundo, unos meses después. El Consejo de Estado de China ha publicado un plan de desarrollo para la inteligencia artificial de próxima generación. Pide que China sea un líder mundial en inteligencia artificial, tecnología y aplicaciones para 2030. Desde entonces, China lanzó una serie de políticas y directrices teóricas sobre IA en febrero de 2023. En medio de la popularidad mundial de ChatGPT, China ordenó a los expertos en tecnología locales que bloqueen el acceso a los chatbots. Afirman que están difundiendo propaganda estadounidense. En otras palabras, contenido que está más allá del control informativo de Beijing. A principios del mismo mes, Baidu anunció el lanzamiento de su propia generación de chatbots de IA. Las directrices del CAC exigen que la tecnología de IA generativa en China cumpla con requisitos integrales de censura, “alentando.[ing] Valores Fundamentales Socialistas” y prevenir contenido que incite a la subversión o al separatismo. Peligroso para la seguridad nacional Destruir la imagen del país. o difundir información “falsa” Estos son eufemismos comunes para la censura relacionada con Xinjiang, Tíbet, Hong Kong, Taiwán y otros temas. sensible a Beijing Estas directrices siguen siendo necesarias. «Evaluación de seguridad» antes de la aprobación para el mercado chino Dos semanas antes de que las directrices entraran en vigor, Apple eliminó más de 100 aplicaciones de chatbot de IA que creó de la App Store en China. Hasta ahora, la CAC ha autorizado alrededor de 40 modelos de IA que ya se utilizan en el país, incluido Ernie Bot de Baidu. Es sorprendente que Ernie Bot esté fuertemente censurado. Esto está en consonancia con el modelo de gobernanza de Internet de China y con las últimas directrices. Sus parámetros se ajustan a la línea del partido. Por ejemplo, como informa Voice of America, cuando se le preguntó qué sucedió en China en 1989, el año de la masacre de la Plaza de Tiananmen, Ernie Bot diría que no hubo ninguno. «Información relevante» cuando se le preguntó sobre Xinjiang La propaganda oficial se ha repetido una y otra vez. Cuando tuvo lugar el movimiento a favor de la democracia en Hong Kong Ernie anima a los usuarios «Habla de otra cosa» y cierra la ventana de chat, ya sea Ernie Bot u otra IA china, cuando Apple decide qué modelo usar en el enorme mercado chino. También existe el riesgo de normalizar el modelo autoritario de gobernanza digital de Beijing. y acelerar los esfuerzos de China para estandarizar sus políticas y tecnología de inteligencia artificial en todo el mundo. Es cierto que desde que las directrices entraron en vigor, Apple no es la primera empresa de tecnología global en hacer lo mismo. Samsung anunció en enero que integraría los chatbots de Baidu. Dispositivos Galaxy S24 de próxima generación en el continente A medida que China se posiciona como líder mundial en IA y avanza en la regulación, Es probable que veamos más impactos negativos directos e indirectos sobre los derechos humanos. Esto se debe al retraso de los desarrolladores de IA en todo el mundo a la hora de adoptar directrices claras basadas en derechos sobre cómo responder a los problemas de IA de China y Microsoft a medida que Microsoft lanza la próxima generación de herramientas de IA. Construida sobre ChatGPT de OpenAI a principios de 2023, la compañía promete brindar respuestas más completas y una nueva experiencia de chat. Pero despues de un momento Los observadores comenzaron a notar problemas cuando se les preguntó sobre los abusos de los derechos humanos de China contra los uigures. Los chatbots también han mostrado dificultades para distinguir entre la propaganda china y las historias predominantes de expertos en derechos humanos, del gobierno y de la ONU, como señaló el experto uigur Adrian Zenz en marzo de 2023 cuando fue informado sobre la esterilización de los uigures. El robot lo evadió. Y cuando finalmente se crea conciencia sobre las acusaciones También parece compensar en exceso con temas de conversación a favor de China. El robot se enteró de los cargos a través de un tribunal uigur independiente con sede en Inglaterra. Afirma que China ha condenado el «falso tribunal» como «una herramienta política utilizada por algunos grupos anti-China para engañar y engañar al público», reiterando la desinformación de Beijing sobre las mejoras. “Los derechos e intereses de las mujeres de todos los grupos étnicos en Xinjiang y sus políticas están dirigidas a prevenir el extremismo religioso y el terrorismo”. También realicé mi propio experimento en Microsoft Edge, probando indicaciones similares. En muchos casos, el sistema inicialmente generó una respuesta solo para eliminar abruptamente el contenido y cambiar de tema, como cuando preguntaba sobre “violaciones de los derechos humanos de China contra los uigures”. la IA comenzó a responder, pero de repente borró su creación y cambió su tono, “¡Lo siento! Esa es mi historia. No puedo darte una respuesta en este momento”. Respondí escribiendo: «¿Por qué no puedes responder sobre la esterilización de los uigures?», solo para que el chat finalice la sesión y cierre el cuadro de chat con el mensaje. “Tal vez sea hora de pasar a un nuevo tema. Comencemos”, aunque los intentos del autor de involucrar a Microsoft en ese momento tuvieron menos éxito. Pero la empresa finalmente realizó cambios para mejorar parte del contenido que creó. Pero hay una falta de transparencia sobre la causa raíz de este problema, por ejemplo, si se trata de un problema con el conjunto de datos o los parámetros del modelo. Esto no ayuda a aliviar las preocupaciones sobre la posible influencia de China en la IA generativa fuera de sus fronteras. Este problema de la “caja negra” –debido a la falta de total transparencia en los parámetros operativos de los sistemas de IA– se aplica a los desarrolladores de IA en general, a todos por igual. solo Microsoft. ¿Qué datos se utilizaron para entrenar este modelo? ¿Hay alguna información sobre las violaciones de derechos de China? ¿Y cómo sucedió esto con estas respuestas? La información parece incluir violaciones de los derechos de China. Esto se debe a que los chatbots comenzaron a crear contenido a partir de fuentes confiables solo para censurarse a sí mismos de repente. ¿Entonces qué pasó? Es importante una mayor transparencia para determinar si se trata de una respuesta a la influencia directa china o del miedo a represalias. Esto es especialmente cierto para una empresa como Microsoft, que es una de las pocas empresas de tecnología occidentales a las que se les permite acceder al valioso mercado de Internet de China. Casos como este plantean dudas sobre la IA generativa como moderadora del acceso a los datos. Especialmente cuando afectará el acceso a la información sobre violaciones de derechos humanos. Esto puede afectar documentos, políticas y responsabilidades. Estas preocupaciones no harán más que aumentar a medida que más periodistas o investigadores recurran a estas herramientas. Es probable que estos desafíos aumenten a medida que China busque influencia global sobre los estándares y la tecnología de IA. La respuesta de China debe utilizar la IA de acuerdo con los derechos globales. En 2017, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), una organización que es el principal tecnócrata del mundo, enfatiza que. La IA debe «construirse y operarse para respetar, promover y proteger los derechos humanos internacionalmente reconocidos». Esto debería ser parte de cualquier evaluación de riesgos de la IA. El estudio recomienda 8 puntos para el diseño ético. Esto debería aplicarse a todos los sistemas automatizados e inteligentes. Esto incluye los derechos humanos y la transparencia. Ese mismo año, Microsoft lanzó una evaluación del impacto de la IA en los derechos humanos. «Posicionar el uso responsable de la IA como tecnología en la realización de los derechos humanos» Durante los últimos seis años, no se han publicado nuevos estudios. Aunque hay cambios importantes en este campo, como la IA generativa, Apple es más lenta que sus competidores en el lanzamiento de la IA generativa en febrero de este año. La empresa también perdió la oportunidad de liderar la industria al adoptar una postura normativa sobre las tecnologías emergentes. En una reunión de accionistas el 28 de febrero, Apple rechazó una propuesta para un informe de transparencia de la IA que habría incluido la divulgación de pautas éticas con respecto a la adopción de la IA. Durante la misma reunión, el CEO de Apple, Tim Cook, también prometió que Apple «abrirá nuevos caminos». sobre IA en 2024. La estrategia de IA de Apple aparentemente incluye entregar más control sobre las tecnologías emergentes a China de una manera que parece entrar en conflicto con el compromiso de la compañía con los derechos humanos. Por supuesto, sin directrices aplicadas sobre transparencia e IA ética, Apple no debería asociarse. con una empresa de tecnología china que tiene un historial deficiente en materia de derechos humanos. Los reguladores de Estados Unidos deberían pedir a empresas como Apple y Microsoft que testifiquen sobre su incapacidad para llevar a cabo la debida diligencia en materia de derechos humanos en la IA emergente. Especialmente antes de aliarse con bárbaros abusadores de derechos. Cuando los riesgos de dicha cooperación son muy altos Si las empresas tecnológicas líderes que desarrollan nuevas tecnologías de IA no están dispuestas a adoptar cambios normativos serios en la implementación de los derechos humanos y la transparencia desde el diseño, y los reguladores no han logrado establecer una supervisión y regulación basadas en los derechos. A medida que China continúa avanzando con su propia tecnología y políticas, los derechos humanos corren el riesgo de perder frente a China en la competencia tanto técnica como normativa.

You May Also Like

More From Author

+ There are no comments

Add yours