Regular o no regular la IA

En un reciente artículo Bill Gates comparaba el desarrollo de la IA con la creación de otras tecnologías disruptivas como los microprocesadores, el ordenador personal, Internet o los teléfonos móviles. Cualquier tecnología suficientemente sofisticada que produzca un impacto en la sociedad necesita una regulación. Fijemos en la ingeniería genética o en la energía nuclear. En el caso de la IA estamos entrando en un nuevo territorio, lleno de oportunidades pero del que desconocemos todos los riesgos. El propio Sam Altman, CEO de OpenAI, reconocía en un tuit la necesidad de mayor regulación en IA. Ahora, la realidad es que de facto no hay una regulación efectiva.

Es preciso realizar una reflexión crítica sobre cómo queremos que se desarrollen estas IA que se alimentan de cantidades ingentes de datos.  La obtención y manipulación de estos datos puede tener implicaciones legales sobre los derechos de autoría, propiedad industrial, privacidad o protección de datos. En un artículo publicado por el The Washington Post analiza contenido descargado de más de 15 millones de sitios web. El corpus incluye páginas web protegidas por derechos de autor, y contenido descargado de portales de piratería. Dado que este tipo de corpus se emplean para entrenar IA generativas, esto supone desafíos legales, como por ejemplo, responder a quién es el autor de una imagen generada por un IA. No solo es una cuestión estrictamente legal.  Es necesario acordar buenas prácticas sobre el uso de estas IA para generar contenido. Por ejemplo, en los códigos deontológicos de los medios de comunicación.

En el caso de la Unión Europea, la iniciativa clave impulsada es el Reglamento de la IA el cual persigue, que dentro del mercado de la EU, los sistemas de IA respeten la autonomía e integridad de las personas, la equidad, e incorporen la explicabilidad. El Reglamento propone un enfoque basado en riesgo donde distingue aplicaciones IA de alto riesgo y de bajo riesgo. Dentro de la primera categoría nos encontramos cualquier práctica que viole los derechos fundamentales, que tenga un gran potencial para manipular el comportamiento de las personas, que se aprovechen de grupos vulnerables o que elabore perfiles sin autorización expresa entre otros. Son en estas aplicaciones de alto riesgo en las que se va a poner mayor foco a la hora de evaluar su impacto. En este punto, se espera que tenga un papel relevante la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) que recientemente se ha decidido ubicar en La Coruña. A esto se une el Sandbox IA liderado por España como piloto del Reglamento de IA con la Comisión Europea. El Reglamento no está aprobado por lo que todavía no tenemos experiencia práctica de cómo se va a aplicar. Teniendo en cuenta que España recibe a partir de junio la presidencia de la Comisión Europea vamos a tener un papel muy relevante en impulsar esta iniciativa. Será cuando se ponga en práctica cuando aparecerán los detalles finos. Por ejemplo, la lucha contra la desinformación colisiona con el derecho a la libertad de expresión. Si desarrollas una IA con este objetivo tienes que analizar el impacto de la misma en el balance mencionado desde el momento que comiences a diseñarla. Para ello, la UE ha publicado unas directrices éticas para desarrollar IA fiables que ya se aplican en la concesión de proyectos de financiación europea.

Estos esfuerzos regulatorios se están produciendo en todo el mundo. En el reciente informe AI Index Annual Report de la Universidad de Standford, se recoge un incremento sustancial en los últimos seis años de propuestas legislativas relativas a IA en todo el mundo. La IA es un tema que ha llegado a los parlamentos. El número de procedimientos legislativos mundiales se ha multiplicado por 6,5 desde 2016. Los esfuerzos legislativos se realizan a nivel nacional, y en el caso de la UE a nivel regional. Ahora bien, los impactos de estos esfuerzos pueden tener alcance global. Tenemos el ejemplo reciente del RGPD (Reglamento General de Protección de Datos) cuyo ámbito de aplicación es europeo, pero que ha afectado a la manera de operar de las empresas tecnológicas internacionales ya que nos van a desarrollar dos infraestructuras, una para Europa y otra para el resto del mundo.

La palabra clave en cuanto a regulación no es «prohibir» sino «garantizar». La legislación tiene que garantizar que se cumplan los derechos de los ciudadanos, y que se produzcan abusos. Por ejemplo, las IA generativas de imágenes como DALL-E o Midjourney son maravillosas, sería absurdo prohibir su uso, lo que tenemos que garantizar que los derechos de los diseñadores gráficos e ilustradores se respeten.  En Europa, afortunadamente, esta regulación aplica también a las propias autoridades. Un sistema de calificación social en la línea de lo que se realiza en China, por ejemplo, está prohibido en el propio Reglamento. La regulación también ayuda a clarificar la relación entre las empresas y sus clientes, y evita que se cometan abusos.

Es habitual esgrimir en contra de la regulación, la falta de competitividad que puede suponer con respecto a otros mercados más liberalizados. Hay que recordar que EE. UU. invirtió en 2022 más de 47 billones de dólares (miles de millones) en IA, 3,5 veces más que China, y unas 19 veces más Alemania, que es el primer país de la UE en inversión en IA. No solo es la regulación la que afecta a la falta de competitividad, tenemos que fijarnos en todos los factores que impactan en el ecosistema de innovación nacional. Dicho esto, es preciso que la implementación práctica del Reglamento no asfixie a las medianas y pequeñas empresas ni a los centros de investigación, ni ralentice los procesos de I+D.

En conclusión, tenemos que avanzar con paso firme hacía un marco jurídico que nos permita desarrollar sistemas basados en IA que garanticen que se cumplen los derechos y libertades en el entorno digital. España parte de una posición de liderazgo tras las distintas iniciativas impulsadas por la SEDIA que culminarán este año con la publicación del Reglamento IA europea bajo su presidencia de la Comisión Europea. Actualmente, en España disponemos de la Carta de Derechos Digitales que, aunque no tiene carácter normativo, es un documento de referencia tanto para los poderes públicos como para las organizaciones que se dedican al desarrollo de sistemas basados en IA. Este documento recoge, entre otros, los derechos ante la Inteligencia Artificial como el deber de garantizar el derecho a la no discriminación en relación con las decisiones, uso de datos y procesos basados en IA. Estos principios básicos deberían incorporarse en las aplicaciones desde el diseño para asegurar un enfoque centrado en la persona. Tal como reconoce la Carta, el objetivo es contribuir a los procesos de reflexión que se están produciendo a nivel europeo, los cuales deberían derivar en una un liderazgo a nivel global para garantizar una digitalización humanista. Este proceso debería realizarse de manera coordinada entre todos los estados miembros. Acciones particulares, como el cierre al acceso de ChatGPT por parte de Italia, generan más confusión en la opinión pública que beneficio. Estamos en un momento en el que tenemos que conservar la calma y alejarnos de posiciones alarmistas para poder establecer un regulación sensata en encuentre el balance entre proveer el uso de la IA y garantizar los valores y bienes constitucionales que rigen en Europa.