En un informe publicado esta semana, OpenAI reveló que ha analizado el potencial de los usuarios para crear dependencia emocional en un nuevo modo de voz similar al humano disponible en el popular chatbot de inteligencia artificial ChatGPT, una referencia al programa de Netflix “Black Mirror”. y la película de Spike Jonze “Her”, señaló la compañía en su informe relacionado con las medidas de seguridad tomadas durante el desarrollo del producto. que durante las primeras pruebas Los usuarios notarán que se utiliza un lenguaje que puede indicar la formación de una conexión con el modelo. El software participa en conversaciones recibiendo y respondiendo a comandos de voz, imagen y vídeo. Esto incluye lenguaje que expresa un vínculo compartido, como ‘Este es nuestro último día juntos’”, según el informe. “Aunque estos casos parecen ser benignos, Pero indica la necesidad de seguir investigando cómo estos efectos pueden manifestarse durante períodos de tiempo más prolongados”. La función de audio se anunció esta primavera como parte de una nueva versión de la aplicación ChatGPT, más recientemente llamada GPT-4o. de ChatGPT se lanzó en mayo. Y las capacidades de audio estuvieron disponibles para los usuarios de pago la semana pasada. Se espera que esté disponible para todos los usuarios en otoño. El informe detalla las capacidades, limitaciones y evaluaciones de seguridad de varios modelos. Esto incluye la capacidad de responder a una entrada de audio en aproximadamente 232 milisegundos, con un promedio de 320 milisegundos, lo que, según la compañía, es similar a los tiempos de respuesta de una conversación humana. El riesgo de antropomorfizar los comportamientos y las características humanas hacia los no humanos, como los modelos de IA, aumenta con las capacidades de voz de GPT-4o, que permiten conversaciones naturales con los modelos, según el informe. También afirma que las características de voz similares a las humanas pueden reducir el riesgo. necesidad de interacción humana. Esto puede ser beneficioso para quienes sufren de soledad. Pero puede tener efectos negativos. “Buenas relaciones”, dice Blase Ur, profesor de informática de la Universidad de Chicago que estudia a los seres humanos. -Interactuar con computadoras. dijo después de leer el informe Está claro que OpenAI ha encontrado motivos para sentirse cómodo con lo que está haciendo. Pero también encontramos motivos de preocupación. Por lo tanto, no está seguro de que las pruebas actuales sean «adecuadas», dijo. «Cuando se piensa en cosas como la seguridad de los automóviles y los aviones, Existe una enorme cantidad de pruebas y validaciones externas y de estándares externos. Como sociedad y como grupo de expertos, estoy de acuerdo”, dijo Ur en una entrevista telefónica el viernes. “Y en muchos sentidos, la prisa de OpenAI por implementar estas cosas es genial porque estamos en una carrera armamentista”. (El New York Times demandó a OpenAI y a su socio Microsoft en diciembre (Además de OpenAI, empresas como Apple y Google están trabajando rápidamente para desarrollar su propia inteligencia artificial. ur dijo Parece que el enfoque actual para rastrear el comportamiento del modelo es buscar inquietudes mientras el modelo está en uso. En lugar de diseñar teniendo en cuenta la seguridad, “por mucho que estemos en una sociedad pospandémica, creo que muchas personas son emocionalmente frágiles”, dijo Ur sobre el caso de manipulación emocional que involucra la función de audio de la IA. Tenemos agentes que pueden jugar con nuestras emociones de muchas maneras diferentes. No es un agente sensible. Pero no sé qué está haciendo. Podemos meternos en estas situaciones”. Esta no es la primera vez. La función de audio de OpenAI también es noticia. Esto se produjo poco después de que se anunciara el producto en mayo. Existía la preocupación de que esta característica pudiera ser demasiado realista en un sentido bastante específico. La actriz Scarlett Johansson, quien expresó la tecnología de inteligencia artificial en la película «Her», dijo que OpenAI usa voces que suenan. “Inquietantemente similar” a su propia voz Aunque ella rechazó la oferta de utilizar su voz. Luego contrató a un abogado e insistió en que OpenAI dejara de usar la voz, a la que llamó «Sky», lo que obligó a la empresa a suspender su lanzamiento. En «Her», la protagonista, interpretada por el actor Joaquin Phoenix, se enamora de un software. AI expresado por Johansson y luego quedó desconsolado cuando se reveló que la IA también tenía relaciones con otros usuarios. El informe de OpenAI parece ser un ejemplo extremo de la vida imitando el arte. La empresa admite abiertamente los riesgos. Potencial para afectar a las personas en el mundo real. La compañía dijo que más investigaciones sobre “Una población de usuarios más diversa junto con una gama más amplia de necesidades y deseos del modelo”, incluido el “estudio interno e independiente” ayudaría más. Determinar con precisión los riesgos potenciales Añadió que “Tenemos la intención de estudiar más a fondo el potencial de dependencia emocional. y cómo se integran las funciones de nuestros modelos y sistemas más profundamente en el formato de sonido. Puede impulsar el comportamiento”.
+ There are no comments
Add yours