El proyecto de ley de seguridad de la IA de California está siendo criticado. La legalización es la mejor manera de mejorarlo.

6 min read

El 29 de agosto, la Legislatura de California aprobó el Proyecto de Ley del Senado 1047, la Ley de Innovación Segura para Modelos Límites de Inteligencia Artificial. y enviado al gobernador Gavin Newsom para que lo firme. La elección de Newsom Con vencimiento el 30 de septiembre, es un binario: elimínelo o hágalo legal. Reconociendo los peligros potenciales de la IA avanzada, la SB 1047 exige que los desarrolladores de tecnología integren protecciones a medida que desarrollan e implementan lo que el proyecto de ley llama «antimalware». “Modelo integral” El Fiscal General de California puede hacer cumplir estos requisitos iniciando acciones civiles contra la parte infractora. Tomaron «cuidados razonables» de que 1) sus modelos no causarían daños graves, o 2) sus modelos podrían cerrarse en caso de emergencia. Varias empresas de inteligencia artificial conocidas se oponen al proyecto de ley, ya sea por sí solas o a través de asociaciones comerciales. Sus argumentos incluyen la preocupación de que la definición de un modelo integral sea demasiado inflexible para tener en cuenta los avances tecnológicos. No es razonable responsabilizarlos por aplicaciones maliciosas desarrolladas por otros. Y el proyecto de ley general sofoca la innovación y disuade a las pequeñas empresas emergentes que no tienen los recursos. Dedicado al cumplimiento Estas objeciones no son una tontería. Merecen consideración y probablemente nuevas enmiendas al proyecto de ley. Pero el gobernador debería firmarlo o aprobarlo independientemente. Porque un veto indicaría que no existe una regulación aceptable sobre la IA en este momento. y posiblemente hasta o a menos que surja un peligro grave. Esa posición no es ideal para que el gobierno adopte dicha tecnología. El senador Scott Wiener (demócrata por San Francisco) trabajó con la industria de la inteligencia artificial en varias versiones del proyecto de ley antes de que se aprobara como legislación final. Antrópico: solicita cambios de mensajes específicos e importantes. Muchos de los cuales fueron incluidos en el proyecto de ley final. Desde que fue aprobado por la Legislatura, el director ejecutivo de Anthropic ha dicho: «Los beneficios probablemente superen los costos… [although] Algunas partes del proyecto de ley [still] Parece preocupante o ambiguo”. La evidencia pública hasta la fecha sugiere que la mayoría de las otras empresas de IA han optado por oponerse al proyecto de ley. En cambio, realiza esfuerzos específicos para resolverlo. ¿Qué debemos hacer ante tal resistencia? Sobre todo porque los dirigentes de algunas de estas empresas ya han expresado públicamente sus preocupaciones. ¿Sobre los peligros potenciales de la IA avanzada? En 2023, los directores ejecutivos de OpenAI y DeepMind de Google firmaron una carta abierta comparando los riesgos de la IA con las pandemias y la guerra nuclear. La conclusión razonable es que A diferencia de la antropología, se oponen a cualquier tipo de regulación obligatoria. Quieren reservarse el derecho de decidir cuándo los riesgos de una actividad o esfuerzo de investigación o cualquier otra forma de uso superan los beneficios. Más importante aún, requiere que quienes desarrollen aplicaciones basadas en su modelo integral asuman la responsabilidad total de mitigar el riesgo. Casos judiciales recientes Esto sugiere que los padres que ponen armas en manos de sus hijos son legalmente responsables de las consecuencias. ¿Por qué las empresas de IA deberían recibir un trato diferente? Las empresas de IA quieren que el público les dé libertad a pesar de su oposición. No se puede confiar en ellos para tomar decisiones que podrían obstaculizar sus resultados. Crear una oportunidad Hemos estado aquí antes. En noviembre de 2023, la junta directiva de OpenAI despidió a su director ejecutivo al ver que la empresa se dirigía por un camino tecnológico peligroso bajo su dirección. dentro de unos días Varias partes interesadas en OpenAI pueden revertir esa decisión. reintegrándolo nuevamente y expulsó a los miembros de la junta que apoyaron su despido. Sorprendentemente, OpenAI estaba estructurado específicamente para permitir que la junta funcionara con normalidad. Aunque la empresa tiene el potencial de obtener ganancias. Pero el comité también debería asegurarse de que el interés público sea lo primero. Si se veta la SB 1047, las fuerzas anti-regulatorias harán una declaración. Una victoria que demuestra la sabiduría de su posición. Y tendrán pocos incentivos para trabajar en una legislación alternativa. La ausencia de regulaciones importantes los beneficia. Y crearán elementos disuasorios para mantener el status quo. O de otra manera El gobernador podría promulgar la SB 1047, añadiendo una invitación abierta a los opositores para que ayuden a abordar sus deficiencias específicas. con lo que consideraban leyes incompletas. Por lo tanto, quienes se oponen a este proyecto de ley tienen un fuerte incentivo para trabajar y trabajar de buena fe para solucionarlo. Pero la pauta básica es que es la industria, no el gobierno, la que ofrece su opinión sobre lo que constituye un cuidado razonable con respecto a las características de seguridad de los modelos avanzados. El papel del gobierno es garantizar que la industria haga lo que dice que debe hacer. Las consecuencias de eliminar la SB 1047 y mantener el status quo son significativas: las empresas pueden desarrollar su tecnología sin restricciones. Las consecuencias de adoptar un proyecto de ley imperfecto serían un paso importante hacia un mejor entorno regulatorio para todos los involucrados. Será el comienzo y no el final del juego de gobernanza de la IA. Este primer paso marcará la pauta para lo que vendrá. y establecer la legalidad de las regulaciones de IA, los gobernadores deberían firmar la SB 1047. Herbert Lin es investigador senior en el Centro para la Seguridad y la Cooperación Internacionales de la Universidad de Stanford. y fue académico de la Institución Hoover. Él es el autor. “Amenazas cibernéticas y armas nucleares”

You May Also Like

More From Author

+ There are no comments

Add yours