EN RESUMEN:
La Legislatura de California aprobó más de una docena de proyectos de ley para regular la inteligencia artificial en los últimos días, aunque algunas ambiciones se quedaron cortas.
Read this story in English
Los legisladores de California acaban de enviar al gobernador Gavin Newsom más de una docena de proyectos de ley que regulan la inteligencia artificial, las pruebas para detectar amenazas a la infraestructura crítica, frenan el uso de algoritmos en niños, limitan el uso de deepfakes y más.
Pero los expertos en el sector de la IA y sus aledaños afirman que las leyes propuestas no consiguen detener algunos de los daños más preocupantes de la tecnología, como la discriminación por parte de empresas y entidades gubernamentales. Al mismo tiempo, dicen los observadores, que los proyectos de ley aprobados sean vetados o promulgados puede depender en gran medida de la presión de la industria, en particular las acusaciones de que el estado se está autoregulando para no competir en un campo en auge.
Los debates sobre los proyectos de ley y las decisiones del gobernador sobre si firmar o no cada uno de ellos son particularmente importantes porque California está en el epicentro del desarrollo de la IA y muchos legisladores se han comprometido este año a regular la tecnología y poner al estado a la vanguardia de la protección de las personas contra la IA en todo el mundo.
Sin duda, el SB 1047 recibió más atención que cualquier otro proyecto de ley de regulación de la IA este año, y después de que pasó por ambas cámaras de la legislatura por amplios márgenes, la industria y los defensores del consumidor están observando de cerca para ver si Newsom lo convierte en ley.
El proyecto de ley, presentado por el senador demócrata de San Francisco Scott Wiener, aborda las enormes amenazas potenciales que plantea la IA y exige que los desarrolladores de modelos avanzados de IA los prueben para comprobar su capacidad de permitir ataques a la infraestructura digital y física y ayudar a los no expertos a fabricar armas químicas, biológicas, radioactivas y nucleares. También protege a los denunciantes que quieran denunciar este tipo de amenazas desde dentro de las empresas tecnológicas.
Pero ¿qué pasa si los daños más preocupantes de la IA son comunes y no apocalípticos? Esa es la opinión de personas como Alex Hanna, director de investigación de Distributed AI Research, una organización sin fines de lucro creada por ex investigadores de inteligencia artificial ética de Google con sede en California. Hanna dijo que 1047 muestra cómo los legisladores de California se centraron demasiado en el riesgo existencial y no lo suficiente en prevenir formas específicas de discriminación. Preferiría que los legisladores consideraran prohibir el uso del reconocimiento facial en las investigaciones criminales, ya que ya se ha demostrado que esa aplicación de la IA conduce a la discriminación racial. También le gustaría que los contratistas adoptaran estándares gubernamentales en torno a la tecnología potencialmente discriminatoria.
“Creo que la 1047 fue la que recibió más ruido por quién sabe qué razón, pero ciertamente no están liderando el mundo ni tratando de igualar lo que Europa tiene en esta legislación”, dijo sobre los legisladores de California.
El proyecto de ley contra la discriminación por IA queda anulado
Un proyecto de ley que sí abordaba la IA discriminatoria fue destripado y luego archivado este año. El Proyecto de Ley 2930 habría requerido que los desarrolladores de IA realizaran evaluaciones de impacto y las presentaran al Departamento de Derechos Civiles y habría hecho que el uso de IA discriminatoria fuera ilegal y sujeto a una multa de $25,000 por cada infracción.
El proyecto de ley original pretendía ilegalizar el uso de la IA discriminatoria en sectores clave de la economía, como la vivienda, las finanzas, los seguros y la atención sanitaria. Pero la autora Rebecca Bauer-Kahan, demócrata de San Ramón, lo retiró después de que el Comité de Asignaciones del Senado limitara el proyecto de ley a la evaluación de la IA en el empleo. Se espera que ese tipo de discriminación ya se frene con las normas que están redactando el Departamento de Derechos Civiles de California y la Agencia de Protección de la Privacidad de California. Bauer-Kahan dijo a CalMatters que planea presentar un proyecto de ley más fuerte el próximo año y agregó: “Tenemos fuertes protecciones contra la discriminación, pero bajo estos sistemas necesitamos más información”.
Al igual que el proyecto de ley de Wiener, el de Bauer-Kahan fue objeto de presión por parte de opositores de la industria tecnológica, entre ellos Google, Meta, Microsoft y OpenAI, que contrató a su primer lobista en Sacramento esta primavera. A diferencia del proyecto de ley de Wiener, también atrajo la oposición de casi 100 empresas de una amplia gama de industrias, entre ellas Blue Shield of California, la empresa de aplicaciones de citas Bumble, la empresa de biotecnología Genentech y la empresa farmacéutica Pfizer.
Según Samantha Gordon, directora de programas de TechEquity, que presionó a favor del proyecto de ley, el fracaso del proyecto de ley contra la discriminación en materia de inteligencia artificial es una de las razones por las que todavía existen “enormes lagunas” en la regulación de la inteligencia artificial en California. Gordon, que coorganizó un grupo de trabajo sobre inteligencia artificial con grupos de derechos humanos, laborales y de privacidad, cree que el estado todavía necesita una legislación que aborde “la discriminación, la divulgación, la transparencia y qué casos de uso merecen una prohibición porque han demostrado su capacidad para dañar a las personas”.
Sin embargo, Gordon dijo que la aprobación del proyecto de ley de Wiener marcó un avance importante, al igual que la aprobación del Proyecto de Ley del Senado 892, que establece los estándares para los contratos que firman las agencias gubernamentales para los servicios de IA. Al hacerlo, el autor y senador demócrata de Chula Vista Steve Padilla le dijo a CalMatters a principios de este año, se aprovecha el poder adquisitivo del gobierno para fomentar servicios de IA más seguros y éticos.
“Contamos con fuertes protecciones contra la discriminación, pero bajo estos sistemas necesitamos más información”.
Asambleísta rebecca bauer-kahan, demócrata de san ramon
Si bien algunos expertos criticaron el proyecto de ley de Wiener por lo que no hizo, la industria tecnológica lo ha criticado por lo que sí hace. Los requisitos de prueba de la medida y los mecanismos de cumplimiento asociados frenarán a las empresas tecnológicas de rápido crecimiento y crearán un efecto paralizante en el intercambio de códigos que inhibe la innovación, han dicho las grandes empresas tecnológicas como Google y Meta.
Dado el poder de la industria en California, esta crítica es el proverbial elefante en la habitación, dijo Joep Meindertsma, CEO de Pause.ai. Pause.ai es un defensor de la regulación de la IA, apoyando el proyecto de ley de Wiener e incluso organizando protestas en las oficinas de empresas con sede en California, incluidas Meta y OpenAI. Por eso, Meindertsma se alegró de ver tantos proyectos de ley regulatorios aprobados por la legislatura este año. Pero le preocupa que se vean socavados por la tensión entre el deseo de regular la IA y el deseo de ganar la carrera -no solo entre empresas sino entre países enteros- para tener la mejor IA. Los reguladores en California y en otros lugares, dijo, quieren tener las dos cosas.
“La dinámica del mercado entre los países que intentan mantenerse por delante de la competencia, tratando de evitar regular demasiado a sus empresas por miedo a desacelerarse mientras los demás siguen compitiendo, esa dinámica es el tema que creo que es el más tóxico en toda la situación”, dijo.
Ya hay indicios de que la presión de la industria podría prevalecer, al menos contra el proyecto de ley de Wiener.
Varios miembros demócratas de la delegación del Congreso de California han pedido a Newsom que vete el proyecto de ley. La expresidenta de la Cámara de Representantes Nancy Pelosi, que representa a San Francisco, también se ha manifestado en contra.
En las últimas semanas, Newsom parece haberse inclinado por la IA, lo que ha suscitado dudas sobre su disposición a regularla. El gobernador mostró un gran interés en utilizar la IA para resolver problemas en el estado de California, firmando un acuerdo con la potencia de la IA, Nvidia, el mes pasado, lanzando un programa piloto de IA para asesoramiento fiscal en febrero y el jueves presentando una solución de IA destinada a conectar a las personas sin hogar con los servicios. Cuando se le preguntó directamente sobre el proyecto de ley de Wiener en mayo, Newsom se mostró ambiguo y dijo que los legisladores deben lograr un equilibrio entre responder a los pedidos de regulación y exagerar.
Los éxitos inesperados de la legislación sobre IA de este año
Algunos proyectos de ley más específicos —y significativamente menos publicitados— que el 1047 de Wiener sí tuvieron éxito en la legislatura.
La SB 942 exigiría a las empresas que proporcionen herramientas de detección de inteligencia artificial sin cargo al público para que puedan diferenciar entre inteligencia artificial y realidad. Fue presentada por el senador demócrata Josh Becker de Menlo Park.
La SB 896 del senador demócrata Bill Dodd de Napa obligaría a las agencias gubernamentales a evaluar el riesgo de utilizar IA generativa y revelar cuándo se utiliza la tecnología.
Otros proyectos de ley sobre inteligencia artificial aprobados en esta sesión legislativa están diseñados para proteger a los niños, incluido uno que tipifica como delito la creación de pornografía infantil con inteligencia artificial generativa y otro que exige a los creadores de aplicaciones de redes sociales que desactiven la selección algorítmica de contenido para los usuarios menores de 18 años a menos que obtengan el permiso de un padre o tutor. En su lugar, los niños verían de forma predeterminada un flujo cronológico de publicaciones recientes de las cuentas que siguen. El proyecto de ley también limita las notificaciones de las aplicaciones de redes sociales durante el horario escolar y entre la medianoche y las 6 a. m.
La semana pasada se aprobaron tres proyectos de ley que tienen como objetivo proteger a los votantes de los audios, imágenes y vídeos engañosos conocidos como deepfakes. Un proyecto de ley persigue a las personas que crean o publican contenido engañoso creado con IA y permite a un juez ordenar una orden judicial que les exija que eliminen el contenido o paguen daños y perjuicios. Otra factura exige que las grandes plataformas en línea como Facebook eliminen o etiqueten los deepfakes dentro de las 72 horas posteriores a que un usuario los denuncie, mientras que otro exige que las campañas políticas revelen el uso de IA en la publicidad.
También están sobre la mesa de Newsom proyectos de ley que exigirían a los creadores obtener permiso antes de utilizar la imagen de una persona muerta y prohibirían el uso de réplicas digitales en algunos casos. Ambos proyectos de ley fueron apoyados por el sindicato de actores SAG-AFTRA.
¿Qué proyectos de ley no se aprobaron?
A la hora de elaborar leyes, lo que no se aprueba, como el proyecto de ley de Bauer-Kahan contra la discriminación por inteligencia artificial, suele ser tan importante como lo que avanza.
Caso en cuestión: AB 3211, que habría requerido que los fabricantes de IA etiquetaran el contenido generado por IA. No prosperó a pesar del apoyo de empresas como Adobe, Microsoft y OpenAI. En una declaración compartida en las redes sociales el martes, la autora del proyecto de ley, la asambleísta demócrata Buffy Wicks de Oakland, dijo que es lamentable que el Senado de California no haya aceptado su proyecto de ley que “era una política modelo para el resto de la nación”. Dijo que planea volver a presentarlo el año que viene.
El proyecto de ley de etiquetado y el proyecto de ley de Bauer-Kahan son dos de las tres medidas señaladas como clave por los funcionarios de la Unión Europea que asesoraron a los legisladores de California tras bastidores. para que adoptaran una regulación de la IA en consonancia con la Ley de IA de la UE, que tardó cinco años en crearse y entró en vigor esta primavera. Gerard de Graaf, director de la oficina de la UE en San Francisco, visitó la Legislatura de California para reunirse con los autores de las leyes AB 3211, AB 2930 y SB 1047 en pos del objetivo de alinear la regulación entre Sacramento y Bruselas.
En una entrevista con CalMatters esta primavera, de Graaf dijo que esas tres leyes lograrían la mayor parte de lo que la Ley de IA busca hacer. Esta semana, de Graaf elogió a sus homólogos de California y dijo que cree que los legisladores estatales hicieron un trabajo serio para aprobar tantos proyectos de ley de regulación de IA diferentes, que están en la cima de su juego y que lograron ser un líder mundial en la regulación de IA este año.
“Esto requiere una comprensión profunda, algo que no está presente en muchas legislaturas del mundo y, en ese sentido, California es líder”, afirmó. “El hecho de que California haya logrado tanto en un año no es una hazaña insignificante y es de suponer que esto continuará”.
A pesar de asesorar a los legisladores sobre dos proyectos de ley que no lograron aprobarse sobre la posibilidad de que el Proyecto de Ley 1047 del Senado enfrente un veto, de Graaf dijo que ve una convergencia con la política de IA de la UE en la aprobación de un proyecto de ley que requiere que los desarrolladores de IA divulguen información sobre los conjuntos de datos utilizados para entrenar modelos de IA.
“El hecho de que el proyecto de ley destinado a proteger a los ciudadanos de la IA discriminatoria no se haya aprobado es un reflejo realmente decepcionante del poder del capital tecnológico en la política de California”, dijo Veena Dubal, profesora de la Facultad de Derecho de la UC Irvine, cuya investigación se ha ocupado de la tecnología y los trabajadores marginados.
“Realmente parece como si nuestra legislatura hubiera sido capturada por empresas tecnológicas que, por su propia estructura, no tienen el interés del público al frente de su propia defensa o toma de decisiones, porque son máquinas de generar ganancias”, dijo.
Ella cree que los acontecimientos de la última sesión legislativa muestran que California no será líder en la regulación de la IA generativa porque el poder de las empresas tecnológicas es demasiado difícil de manejar, pero ve señales prometedoras en los proyectos de ley aprobados para proteger a los niños de la IA. Se siente alentada por los proyectos de ley de réplica digital apoyados por SAG-AFTRA aprobados, un reflejo de las huelgas de trabajadores en 2022, y que los legisladores dejaron en claro que el uso de la IA generativa para hacer pornografía infantil y seleccionar contenido para niños sin el consentimiento de los padres debería ser ilegal. Lo que parece más desafiante es aprobar leyes que requieran algún grado de rendición de cuentas. No debería ser discutible si las personas merecen protección contra las violaciones de los derechos civiles, y ella quiere que los legisladores etiqueten otros usos de la IA como inaceptables, como el uso de la IA para evaluar a las personas en el lugar de trabajo.
“El hecho de que se hayan aprobado esas leyes (que protegen a los niños) no es sorprendente, y mi esperanza es que su aprobación abra el camino para detener o prohibir el uso de la IA o la toma de decisiones automatizada en otras áreas de nuestras vidas en las que claramente ya está causando daño”, dijo.