Los protocolos de seguridad de IA pueden pasar por alto las mayores amenazas

6 min read

La era de la inteligencia artificial ha comenzado. Y trae consigo muchas preocupaciones nuevas: se ha dedicado mucho esfuerzo y dinero a garantizar que la IA sólo haga lo que los humanos quieren que haga. Pero lo que más deberíamos temer es la IA que hará lo que los humanos quieren. El verdadero peligro somos nosotros mismos. Ese no es un riesgo que la industria esté tratando de abordar. en febrero Toda la empresa Synth Labs fue fundada con el objetivo de Claramente, la «alineación de la IA» permite a las empresas comportarse como los humanos desean. Entre los inversores de la empresa se encuentran M12, propiedad de Microsoft, y First Start Ventures, fundada por el ex director ejecutivo de Google, Eric Schmidt. OpenAI, el creador de ChatGPT, se ha comprometido a que el 20% de su potencia de procesamiento será «Alineación avanzada» que «dirigirá y controlará sistemas de IA mucho más inteligentes que nosotros». Las grandes tecnologías se acabaron, y eso probablemente sea algo bueno debido al rápido desarrollo de la tecnología de IA. Casi toda la conversación gira en torno a que el riesgo implica las consecuencias de Los sistemas de IA logran objetivos que difieren de aquellos para los que fueron programados y no son lo mejor para los humanos. Todo el mundo puede entender el concepto de alineación y seguridad de la IA, pero este es sólo un lado del peligro. Imagínese lo que pasaría si la IA hiciera lo que los humanos quieren. Por supuesto, «lo que los humanos quieren» no es monolítico. Diferentes personas quieren cosas diferentes y tienen muchas ideas sobre lo que constituye “Mejor para mejor” Creo que la mayoría de nosotros estaríamos, con razón, preocupados si la inteligencia artificial coincidiera con la visión de Vladimir Putin o Kim Jong Un de un mundo óptimo. Incluso si podemos hacer que todos se centren en el bienestar de toda la raza humana. Es poco probable que lo hagamos Se puede llegar a un consenso sobre lo que Elon Musk dejó claro la semana pasada cuando compartió en X, su plataforma de redes sociales. que le preocupa que la IA impulse Personas con fuertes prejuicios, ¿puedo realmente creer que será beneficioso en general? de la humanidad matar a cualquiera que consideren desviado. La IA «alineada con los humanos» es básicamente igual de buena, malvada, creativa o peligrosa. con gente diseñando Esa parece ser la razón por la que Google DeepMind, el brazo de desarrollo de IA de la compañía, creó recientemente una organización interna centrada en la seguridad y la protección contra la manipulación de la IA por parte de malos actores. Pero no está bien que algo «malo» lo determinen sólo unas pocas personas en esta empresa. (y muchos otros similares) junto con sus puntos ciegos y prejuicios personales y culturales. Hay más problemas potenciales que eso. Los humanos dañan a otros humanos, cosas que son «buenas» para la humanidad, muchas veces a lo largo de la historia. viene con la pérdida de otros seres vivos. Esta situación es así. Solo en Estados Unidos Tenemos miles de millones de animales mantenidos cautivos, torturados y privados de sus necesidades psicológicas y fisiológicas básicas en un momento dado. Especies enteras serían suprimidas y asesinadas sistemáticamente para que pudiéramos tener tortillas, hamburguesas y zapatos si la IA hiciera exactamente lo que “nosotros” (quien haya programado el sistema) queríamos. Eso podría significar hacer cumplir esta brutal masa de manera más eficiente, en la misma cantidad de tiempo, a mayor escala y con más automatización. Y hay menos oportunidades para que los humanos empáticos intervengan y marquen algo extraordinariamente horripilante. De hecho, en las granjas industriales Esto ya está sucediendo. Incluso si es más pequeño de lo posible. Los principales fabricantes de productos animales, como Tyson Foods de Estados Unidos, CP Foods de Tailandia y Mowi de Noruega, han comenzado a probar sistemas de inteligencia artificial que tienen como objetivo hacer que la producción y el procesamiento animal sean más eficientes. Estos sistemas se están probando para alimentar animales. seguir el crecimiento marcas de clip en el cuerpo e interactuar con animales utilizando sonidos o descargas eléctricas para controlar su comportamiento. ¿Qué mejor objetivo que hacer que la IA sea más inmediatamente relevante para los intereses de la humanidad? A esto lo llamaré alineación sensible: la IA sirve a los intereses de todos los seres vivos, incluidos los humanos, todos los demás animales y la IA, si existe. En otras palabras Si una organización puede experimentar felicidad o dolor Su destino debe tenerse en cuenta a la hora de tomar decisiones. Esta podría considerarse una propuesta más radical. Debido a que lo que es bueno para toda la vida sensible puede no siempre ser consistente con lo que es bueno para la humanidad, a veces puede entrar en conflicto con lo que la humanidad quiere o con lo que es mejor para la mayoría de nosotros. Eso podría significar, por ejemplo, que la IA elimine los zoológicos. Destrucción innecesaria de ecosistemas para reducir el sufrimiento de la vida silvestre o una prohibición de la experimentación con animales Hablando recientemente en el podcast “All Thoughts Considered”, Peter Singer, filósofo y autor del histórico libro Animal Liberation de 1975, “argumentó que los objetivos y prioridades finales de los sistemas de IA son: “La pregunta es: ¿la IA superinteligente será realmente amable y deseosa? ¿Para crear un mundo mejor?”, dijo Singer. “E incluso Si no lo controlamos Seguirá creando un mundo mejor en el que se tengan en cuenta nuestros intereses. A veces pueden ser pasados ​​por alto por los intereses de los animales no humanos o por los intereses de la IA, pero creo que sigue siendo un buen resultado”. Estoy con Singer en esto. Parece que lo más seguro y compasivo que podemos hacer es ser considerados con la vida no humana. Aunque los intereses de esas entidades puedan entrar en conflicto con lo que es mejor para los humanos. La deshumanización es central en cualquier nivel. Especialmente en este nivel extremo está la idea de que desafía a las personas. Pero eso es necesario si queremos evitar que nuestro especismo actual se extienda de maneras nuevas y terribles. Lo que realmente deberíamos pedir es que los ingenieros amplíen su empatía al diseñar tecnología. Cuando pensamos en «seguro», pensamos en lo que significa «seguro» para todos los seres vivos. No solo humanos Cuando pretendemos que la IA sea “amable”, debemos asegurarnos de que signifique bondad para el mundo en general. No es la única especie que vive allí, Brian Kateman es cofundador de la Downsize Foundation. que es una organización sin fines de lucro dedicada a la reducción de la sociedad Consumo de productos animales. Su último libro y documental es «Meat Me Halfway».

Source link

You May Also Like

More From Author

+ There are no comments

Add yours