Carta abierta a los líderes de Europa por la aprobación de la ley de inteligencia artificial | Tecnología

Estimados señor Macron, señora Meloni, señor Scholz y señor Sánchez [como presidente de turno]:

Nos encontramos en un punto crítico en la vida de la Propuesta de Reglamento de IA (AI Act). En la fase de trílogo, esta regulación está amenazada por lo que consideramos una oposición equivocada por parte de los representantes de sus gobiernos, a favor de la autorregulación por parte de las empresas que desarrollan modelos fundamentales de IA (como ChatGPT y Bard). Esto implica que dichas empresas deberían adherirse a sus propios códigos de conducta, en lugar de ser reguladas directamente por organismos oficiales. Este cambio de enfoque está retrasando la aprobación del Reglamento de IA, sobre todo si tenemos en cuenta las próximas elecciones al Parlamento de la UE previstas para junio. Y, lo que es más grave, ello podría socavar su eficacia y plantear severos riesgos para los derechos de los ciudadanos europeos y la innovación europea. En contra de un enfoque autorregulador, instamos a todas las partes implicadas en el trílogo a aprobar el Reglamento de IA lo antes posible. A continuación, expondremos tres razones clave para apoyar la aprobación del Reglamento de IA en su forma original.

Las empresas no deben hacer las reglas por sí mismas

Los códigos de conducta, incluso cuando son obligatorios, son insuficientes y a menudo ineficaces. Cuando las empresas se autorregulan pueden priorizar sus beneficios sobre la seguridad pública y aspectos éticos. Tampoco está claro quién supervisará el desarrollo y las aplicaciones de estos códigos de conducta, cómo y con qué grado de responsabilidad. Este planteamiento recompensa a las empresas que se arriesgan al no invertir tiempo y recursos en códigos de conducta sólidos, en detrimento de las que sí cumplen.

Esto también supone un perjuicio para la industria de la IA, ya que deja a las empresas con la incertidumbre de si sus productos y servicios estarán permitidos en el mercado y si pueden enfrentarse a multas tras su comercialización. Es posible que haya que remediar las incertidumbres con normas directas una vez que el Reglamento ya haya sido aprobado, limitando así el debate parlamentario. Finalmente, si cada empresa o sector elabora sus propias reglas, el resultado solo puede ser un confuso mosaico de normas, lo que aumenta la carga de supervisión para el regulador, pero también hace más difícil para las empresas cumplir con los códigos, obstaculizando así tanto la innovación como el cumplimiento. Esto va en contra de uno de los objetivos fundamentales del Reglamento de IA, que es armonizar las normas en toda la UE.

El liderazgo de la UE en la regulación de IA

La actual oposición de Francia, Italia y Alemania a regular los modelos fundacionales de IA pone en peligro el liderazgo de la UE en la regulación de IA. La UE ha estado a la vanguardia, al abogar por el desarrollo de normativas que garanticen que la tecnología es segura y justa para todos. Pero esta ventaja podría perderse si no se abordan con rapidez y éxito los desafíos normativos pendientes. Una UE indecisa perderá su ventaja competitiva frente a países como EE.UU. o China. Los ciudadanos europeos corren el riesgo de utilizar productos de IA regulados según valores y agendas no alineadas con los principios europeos.

El coste de no regular la IA

Retrasar la regulación de la IA tiene costes significativos. Sin normas comunes, los ciudadanos son vulnerables a aplicaciones de IA que no sirven a los intereses públicos. Esta falta de regulación abre la puerta a posibles usos indebidos y abusos de las tecnologías de IA. Las consecuencias son graves e incluyen violaciones de la privacidad, sesgo, discriminación y amenazas a la seguridad nacional en áreas críticas como la sanidad, el transporte y la aplicación de la ley. Desde un punto de vista económico, las aplicaciones de IA no reguladas pueden distorsionar la competencia y la dinámica del mercado, creando un terreno de juego desigual en el cual solo triunfarán las empresas poderosas y bien financiadas. Es un error pensar que la regulación va en contra de la innovación: solo a través de la regulación y, por tanto, de la competencia leal puede florecer la innovación, en beneficio de los mercados, las sociedades y los entornos. Solo con una mejor regulación se puede conseguir más innovación.

En conclusión, el Reglamento de IA es algo más que una simple ley. Es una declaración sobre cuáles son los valores que, como europeos, queremos promover y qué tipo de sociedad deseamos construir. Implementa y refuerza la identidad y reputación de la UE. Pone de relieve la credibilidad de la UE y su papel de liderazgo en la comunidad mundial de IA.

Por todas estas razones -cinco años después de la publicación del Marco Ético para una Buena Sociedad de IA de AI4People, el cual guió el trabajo inicial del Grupo de Alto Nivel sobre IA de la Comisión Europea- instamos a las instituciones de la UE y a los Estados miembros a encontrar un compromiso que preserve la integridad y la ambición del Reglamento de IA. Permitan que esta legislación sea un faro de gobernanza responsable y ética de la IA, que sirva de ejemplo mundial para que otros la sigan.

La carta está firmada por:

Luciano Floridi, Director fundador del Centro de Ética Digital de la Universidad de Yale y Presidente de Atomium-EISMD.

Michelangelo Baracchi Bonvicini, Primer Presidente del Comité Científico del Instituto AI4People y Presidente del Instituto AI4People.

Raja Chatila, Profesor Emérito de Inteligencia Artificial, Robótica y Ética Informática de la Universidad de la Sorbona.

Patrice Chazerand, Director de Asuntos Públicos de AI4People Institute y antiguo Director de Asuntos Públicos Digitales de Europa.

Donald Combs, Vicepresidente y Decano de la Escuela de Profesiones Sanitarias del Eastern Virginia Medical School.

Bianca De Teffe’ Erb, Directora de Ética de los Datos y la IA en Deloitte.

Virginia Dignum, Catedrática de Inteligencia Artificial Responsable, Universidad de Umeå y Miembro del Consejo Asesor de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial.

Rónán Kennedy, Profesor Asociado, Facultad de Derecho, Universidad de Galway.

Robert Madelin, Presidente del Consejo Asesor del Instituto AI4People.

Claudio Novelli, Investigador Postdoctoral, Departamento de Estudios Jurídicos de la Universidad de Bolonia y Becario internacional del Digital Ethics Center (DEC) de la Universidad de Yale.

Burkhard Schafer, Catedrático de Teoría Jurídica Computacional de la Universidad de Edimburgo.

Afzal Siddiqui, Catedrático del Departamento de Informática y Ciencias de Sistemas de la Universidad de Estocolmo.

Sarah Spiekermann, Presidenta del Instituto de SI y Sociedad de la Universidad de Economía y Empresa de Viena.

Ugo Pagallo, Profesor Titular de Jurisprudencia, Teoría del Derecho e Informática Jurídica en el Departamento de Derecho de la Universidad de Turín.

Cory Robinson, Catedrático de Diseño de la Comunicación y Sistemas de Información de la Universidad de Linköping.

Elisabeth Staudegger, Catedrática de Informática Jurídica y Derecho de las TI (Derecho de las Tecnologías de la Información), Jefa del Departamento Jurídico y de TI del Instituto de Fundamentos Jurídicos de la Universidad de Graz.

Mariarosaria Taddeo, Profesora de Ética Digital y Tecnologías de Defensa en el Institutode Internet de Oxford de la Universidad de Oxford.

Peggy Valcke, Catedrática de Derecho y Tecnología de la Universidad Católica de Lovaina y Vicedecana de Investigación de la Facultad de Derecho y Criminología de Lovaina.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

By Ervin J. Oakes

Puede interesarte