Microsoft da un nuevo impulso hacia sistemas de IA ligeros

6 min read

En la enloquecedora carrera por crear sistemas generativos de IA La magia de la industria tecnológica es cada vez mayor. Cualquiera que sea el precio, las empresas de tecnología ahora están recurriendo a tecnologías de inteligencia artificial más pequeñas que no son tan poderosas pero sí mucho más baratas. y para muchos clientes Ésa podría ser una buena compensación. El martes, Microsoft presentó tres pequeños modelos de IA que forman parte de una familia de tecnología que la compañía llamó Phi-3. La compañía dijo que incluso el más pequeño de los tres sistemas funciona tan bien como GPT-3.5, que es el sistema mucho más grande que alimenta. El chatbot ChatGPT de OpenAI sorprenderá al mundo cuando se lance a finales de 2022. El modelo Phi-3 más pequeño puede caber en un teléfono inteligente. Por lo que se puede utilizar incluso cuando no está conectado a Internet. y puede funcionar con el tipo de chips que impulsan las computadoras convencionales. En lugar de los procesadores más caros fabricados por Nvidia, ya que los modelos más pequeños requieren menos potencia de procesamiento. Por lo tanto, los grandes proveedores de tecnología pueden cobrar menos a sus clientes por utilizarlos. Esperan que eso signifique que más clientes puedan usar la IA en lugares donde los modelos más grandes y avanzados son demasiado costosos, aunque Microsoft dice que el uso del nuevo modelo mejorará. Es «mucho más barato» que utilizar modelos más grandes como GPT-4, pero no proporcionó detalles específicos. Los sistemas más pequeños son menos eficientes. Esto significa que podría ser menos preciso o más complicado, pero Microsoft y otras empresas tecnológicas Se apuesta a que los clientes estarán dispuestos a sacrificar algo de eficiencia. Si eso significa que finalmente pueden permitirse la IA, los clientes imaginarán todo tipo de formas. Hay mucho que usar IA, pero con el sistema más grande «Dicen: ‘Oh, pero ya sabes, podría ser costoso'», dijo Eric Boyd, un ejecutivo de Microsoft. Los modelos más pequeños son casi por definición más baratos de manejar, dijo Boyd, algunos clientes como un médico o un médico. preparador de impuestos El coste de un sistema de IA más grande y preciso puede justificarse. Porque su tiempo es muy valioso. Pero es posible que muchas tareas no requieran el mismo nivel de precisión. Por ejemplo, los anunciantes en línea creen que pueden orientar mejor sus anuncios con IA, pero necesitan costos más bajos para poder utilizar el sistema de manera consistente. «Quiero que mi médico haga lo correcto», dijo Boyd. “Otras situaciones Estoy resumiendo las opiniones de los usuarios en línea. Si no mas o menos No es el fin del mundo”. El chatbot funciona con un modelo de lenguaje a gran escala, o LLM, un sistema matemático que tarda semanas en analizar libros digitales, artículos de Wikipedia, artículos de noticias y registros de chat. y otros mensajes Seleccionado de internet especificando formatos en todos los mensajes Aprenden a crear texto por sí solos, pero LLM almacena mucha información. Obtener lo que se necesita para cada chat requiere mucha potencia computacional. Y eso es caro. Si bien los gigantes tecnológicos y las nuevas empresas como OpenAI y Anthropic se centran en mejorar sistemas de inteligencia artificial más grandes, también compiten para desarrollar modelos más pequeños que ofrezcan precios más bajos. Meta y Google lanzaron modelos a pequeña escala el año pasado, Meta y Google también tenían estos modelos. «Código abierto», lo que significa que cualquiera puede usarlo. Estos modelos son de uso y edición gratuitos. Este es un método común para las empresas. Para salir y ayudar a mejorar su software. Y para alentar a la gran industria a utilizar su tecnología, Microsoft también está abriendo el código fuente de su nuevo modelo Phi-3 (The New York Times demandó a OpenAI y Microsoft en diciembre por infracción de derechos de autor de contenido de noticias relacionado con el sistema de IA). abrió ChatGPT, dijo Sam Altman, director ejecutivo de la empresa. El costo de cada chat es Ese es un costo enorme considerando que servicios web populares como Wikipedia están disponibles a una fracción del costo. Hoy en día, los investigadores dicen que su modelo más pequeño puede alcanzar al menos el rendimiento de un centavo de un solo dígito. Los principales robots son ChatGPT y Google Gemini, básicamente. El sistema aún puede analizar grandes cantidades de datos. En lugar de ello, almacena el formato especificado en un paquete más pequeño que puede servirse con menos potencia de procesamiento. La creación de estos modelos es una compensación entre potencia y escala, Sébastien Bubeck, investigador y vicepresidente de Microsoft, dice que la compañía ha creado modelos nuevos y más pequeños mejorando los datos que contienen. Trabaja para garantizar que los modelos aprendan de texto de mayor calidad. Parte de este mensaje es generado por la propia IA, algo llamado Luego, los curadores humanos trabajan para separar el texto más nítido del resto. Microsoft creó tres modelos en miniatura diferentes: Phi-3-mini, Phi-3-small y Phi-3-medium Phi-3-mini, que estarán disponibles el martes. Es el modelo más pequeño. El medio Phi-3 más barato (y más económico) pero menos eficaz aún no está disponible. Es el sistema más potente pero también el más grande y caro. Hacer que el sistema sea lo suficientemente pequeño como para enviarlo directamente a un teléfono o computadora personal. «Hará que el sistema sea mucho más rápido y un orden de magnitud más pequeño», dijo Gil Luria, analista del banco de inversión DA Davidson.

You May Also Like

More From Author

+ There are no comments

Add yours