Harto de la IA apocalíptica, el director ejecutivo de Cohere dice que su objetivo es la tecnología que ‘Agregar valor a la humanidad’

A Aidan Gomez se le puede atribuir una ‘T’ al final de ChatGPT. Formó parte de un grupo de ingenieros de Google que introdujo por primera vez un nuevo modelo de inteligencia artificial llamado Autopilot. Ayudó a sentar las bases para el auge actual de la IA sobre el que se basaron OpenAI, los creadores de ChatGPT y otros. Gómez, uno de los ocho coautores de Google en 2017, era un pasante de 20 años en ese momento. Hoy, es el director ejecutivo. Gómez, cofundador de Cohere, una startup con sede en Toronto que compite con otras empresas líderes en inteligencia artificial para proporcionar modelos de lenguaje a gran escala y los chatbots que impulsan a grandes empresas y organizaciones, habla sobre el futuro de la inteligencia artificial generativa con The Associated Press. La entrevista ha sido editada para mayor extensión y claridad. P: ¿Qué es un piloto automático? Respuesta: El piloto automático es la arquitectura de una red neuronal artificial. Esta es la estructura computacional que ocurre dentro del modelo. La razón por la que los transformadores son especiales en comparación con sus competidores es su arquitectura competitiva. Formas alternativas de estructurar redes neuronales. es que escalan muy bien. Podrían cultivar no sólo miles. Pero decenas de miles de chips Se pueden entrenar muy rápidamente. Realizan una serie de operaciones para las que estas GPU (chips gráficos) están específicamente optimizadas. Comparado con lo que existía antes del transformador. Lo procesan más rápido y más eficientemente P: ¿Qué importancia tiene esto para lo que hace en Cohere? R: Muy importante. Usamos la misma arquitectura Transformer que todos los demás. Al crear modelos de lenguaje a gran escala, Cohere se centra principalmente en la escalabilidad y la preparación para la producción de la empresa. Algunos de los otros modelos con los que competimos son extremadamente grandes e ineficientes. No puedes poner eso en práctica. Porque tan pronto como te enfrentas a usuarios reales Los costos aumentarán y la economía colapsará. P: ¿Cuáles son algunos ejemplos específicos de cómo los clientes utilizan el modelo Cohere? R: Tengo un ejemplo favorito en el sector sanitario. Esto se debe al sorprendente hecho de que el 40% de la jornada laboral de un médico se dedica a escribir notas de los pacientes. ¿Qué pasaría si pudiéramos hacer que los médicos colocaran pequeños dispositivos de escucha pasiva para seguirlos durante todo el día? Durante las visitas de los pacientes escuchando conversaciones y pre-llenar esos registros Para que en lugar de tener que escribirlo desde cero, haya un primer borrador. Pudieron leer y hacer correcciones, y de repente las capacidades del médico aumentaron a proporciones enormes. P: ¿Cómo abordan las preocupaciones de los clientes sobre los modelos de lenguaje de IA que son propensos a «alucinaciones» (errores) y cómo pueden estar sesgados? R: Los clientes siempre están preocupados por las alucinaciones y los prejuicios. Conduce a una mala experiencia con el producto. Por tanto, es algo a lo que le damos mucha importancia. para alucinaciones Nuestro enfoque principal está en RAG, un modelo que mejora la extracción de datos. Recientemente lanzamos un nuevo modelo llamado Command R, que está dirigido directamente a RAG y le ayuda a conectar sus modelos a su fuente personal de conocimiento confiable. Podría ser un documento dentro de su organización o un correo electrónico de uno de sus empleados. Le estás dando al modelo acceso a información que nunca vio en la web mientras estaba aprendiendo. Es importante destacar que también le permite inspeccionar el modelo. Porque ahora en lugar de simplemente usar mensajes entrantes o salientes En realidad, el modelo hace referencia al documento. Puede consultar el lugar donde recibió esa información. Puede comprobar su funcionamiento y ganar más confianza al trabajar con esta herramienta. Reducirá en gran medida las alucinaciones. P: ¿Cuál es el mayor error del público sobre la IA generativa? R: El temor que tienen algunos individuos y organizaciones de que esta tecnología sea el fin de todo. que es un riesgo existente Esta es una historia que la humanidad ha estado contando durante décadas. La tecnología se ha apoderado de nosotros y nos ha reemplazado. haznos rendirnos Están profundamente arraigados en el tronco cerebral cultural del público. Es una historia muy destacada. Es más fácil transmitir las fantasías y los miedos de las personas cuando se las cuentas de esa manera. Así que le prestamos mucha atención porque es una historia muy interesante. Pero la verdad es Creo que esta tecnología será muy buena. Hay mucho debate sobre cómo podría salir mal. Quienes desarrollamos tecnología somos muy conscientes y nos esforzamos por reducir esos riesgos. Todos queremos que esto salga bien. Todos queremos que esta tecnología sea una extensión de la humanidad. No es una amenaza para ello. P: No sólo OpenAI, sino también varias grandes empresas tecnológicas han dicho claramente que están intentando desarrollar inteligencia artificial general. (Término amplio para IA que es mejor que los humanos). ¿AGI es parte de su misión? R: No, no veo eso como parte de mi misión. Para mí, AGI no es el objetivo final. El objetivo final es tener un impacto profundamente positivo en el mundo con esta tecnología. Es una tecnología muy común. es una razon es inteligente Por eso se puede utilizar en todas partes. Y queremos asegurarnos de que sea la forma de tecnología más eficiente posible, lo más rápido posible. No se trata de una búsqueda pseudorreligiosa de AGI. Ni siquiera sabemos su definición P: ¿Qué pasará después? R: Creo que todo el mundo debería estar atento al uso de herramientas y comportamientos más parecidos a los de los agentes. Modelos que podrás presentar por primera vez con las herramientas que crees. Puede ser un programa de software o una API (interfaz de programación de aplicaciones) y puedes decir: «Oye modelo, acabo de crear esto». Esto es lo que hace. Así es como interactúas con él. Esto es parte de un conjunto de herramientas que puedes hacer. El principio general de poder dar a los modelos herramientas nunca antes vistas que puedan utilizarse de forma eficaz. Creo que será muy efectivo. Para hacer muchas cosas, necesita acceso a herramientas externas. El status quo es que los modelos pueden escribirle caracteres (texto). Si otorgas acceso a la herramienta Pueden realizar operaciones del mundo real en su nombre. © Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Source link

You May Also Like

More From Author

+ There are no comments

Add yours