La IA generativa tomó por asalto el último AWS Summit que se celebró en Madrid el pasado 5 de junio. Junto con esta tecnología, uno de los conceptos que resonó con más fuerza fue el de «IA responsable» (Responsible AI, en inglés). Un término cuyo interés en las búsquedas en Google ha crecido de la mano de la popularidad de las aplicaciones de IA generativa.
Creo que todos estamos de acuerdo en que queremos maximizar los beneficios de la IA minimizando sus posibles riesgos. Para cumplir este objetivo podemos promover un uso responsable a los usuarios, definir y cumplir buenas prácticas en el desarrollo, auditar los procesos distribución e implantación de estos sistemas, o monitorizar si la IA cómete fallos no atribuibles al usuario. Todas estas acciones caben dentro de lo que se denomina IA responsable aunque, desde mi punto de vista, el término no está bien elegido y puede llevar a confusión. La IA, como cualquier otro programa informático, no puede ser responsable de las acciones que realiza. Los responsables serán cualquiera de los anteriores actores que intervienen desde el desarrollo hasta el uso.
Hay una tendencia histórica en la disciplina de antropomorfizar la terminología, empezando por el propio nombre de «inteligencia artificial». Más recientemente, se ha popularizado el término «alucinar» para indicar cuando la IA generativa está respondiendo incorrectamente. La terminología tendría que ayudar a clarificar los límites de la disciplina, en cambio, en este caso está escogida, consciente o inconscientemente, para difuminar las fronteras entre la tecnología y el imaginario colectivo. El resultado es una confusión, más o menos generalizada, sobre cuál es la naturaleza de la IA y hasta donde llegan sus posibilidades. Esto tiene efecto, por ejemplo, en que se generen absurdos debates sobre si la IA piensa o no, que están abocados al fracaso por cómo manejan la terminología y las definiciones.
No podemos exigir a una IA que se responsabilice de sus acciones, en tanto en cuanto la responsabilidad requiere una voluntad que guíe la acción. No es factible construir una IA responsable, en cambio sí que podemos desarrollar IA fiables. Esta es básicamente la propuesta del grupo de expertos de alto nivel de la Unión Europea que plantea los principios para desarrollar una «IA fiable» (Trustworthy AI, en inglés). Este grupo de expertos ha identificado siete requisitos que tienen que cumplir una IA fiable. A continuación, resumimos cada uno de ellos.
Acción y supervisión humana (Human agency and oversight). Las IA deben ayudar a los individuos a tomar decisiones informadas y proteger su autonomía, especialmente contra posibles impactos negativos en los derechos fundamentales. En contraposición, es preciso que los usuarios estén capacitados para comprender e interactuar con estos sistemas de IA. La supervisión humana es crucial para evitar que la IA socave la autonomía o cause daños.
Solidez técnica y seguridad (Technical robustness and safety). La robustez técnica requiere que los sistemas de IA se desarrollen con un enfoque preventivo frente a riesgos, asegurando un comportamiento fiable y minimizando daños no intencionales e inesperados. Es preciso que dispongan de planes de contingencia y medidas de seguridad. Otro aspecto fundamental es que los resultados deben ser consistentes bajo las mismas condiciones.
Gestión y privacidad de los datos (Privacy and data governance). Proteger la privacidad requiere una adecuada gobernanza de datos, asegurando la calidad e integridad de los mismos durante todo su ciclo de vida. Se deben establecer protocolos de acceso a datos dentro de las organizaciones, permitiendo el acceso solo a personal calificado y con la necesidad de acceder a esos datos.
Transparencia (Transparency): Este requisito está estrechamente relacionado con el principio de explicabilidad que implica explicitar los procesos técnicos de un sistema de IA y las decisiones humanas relacionadas. Esto puede requerir un equilibrio entre la explicabilidad y la precisión del sistema. Además, la transparencia requiere que las IA no se presenten como humanos y que se informe a los usuarios de que están interactuando con una IA. También deben comunicarse las capacidades y limitaciones del sistema de IA de manera adecuada al caso de uso.
Diversidad, no discriminación y equidad (Diversity, non-discrimination and fairness). Es esencial promover la inclusión y diversidad a lo largo del ciclo de vida de los sistemas de IA. Se debe evitar sesgos injustos eliminando los prejuicios históricos y discriminatorios de los conjuntos de datos y los algoritmos. Deben diseñarse siguiendo principios de diseño universal y estándares de accesibilidad.
Bienestar social y ambiental (Societal and environmental well-being). Se debe fomentar la sostenibilidad y la responsabilidad ecológica como parte del desarrollo de las IA. Estos sistemas deben desarrollarse, desplegarse y utilizarse de manera ambientalmente sostenible, evaluando el uso de recursos y el consumo de energía, y optando por opciones menos dañinas. Además, se debe monitorear cuidadosamente el impacto social de estos sistemas, ya que pueden influir en el funcionamiento de las instituciones así como en las relaciones sociales y el bienestar físico y mental de las personas.
Rendición de cuentas (Accountability). Es preciso implementar mecanismos para asegurar la auditabilidad de estos sistemas y de sus resultados, antes y después de su desarrollo, despliegue y uso. Es crucial minimizar y reportar los impactos negativos, protegiendo a quienes informan preocupaciones legítimas. Estas evaluaciones de impacto deben ser proporcionales al riesgo del sistema. Deben existir mecanismos accesibles para garantizar una compensación adecuada cuando ocurran impactos adversos injustos, prestando especial atención a personas o grupos vulnerables.
Estos siete requerimientos aseguran que se cumplan los tres principios fundamentales para disponer de una IA fiable: que uso se ajuste a la legalidad vigente, que esté alineada con los valores éticos imperantes en la sociedad y que sea técnicamente robusta.
Creo que este concepto de IA fiable genera unas expectativas más adecuadas en el público general que el de IA responsable. Espero que esta breve entrada motive una reflexión sobre cómo estamos empleando la terminología, y que podamos discutir sobre cuáles son los términos que mejor encajan dentro de la disciplina.
Si se desea profundizar en el concepto IA fiable recomiendo encarecidamente la lectura del documento Directrices éticas para una IA fiable como punto de partida. Para aquellos que desarrolleis sistema IA sugerería consultar la Assessment List for Trustworthy Artificial Intelligence (ALTAI), que incluye una lista de comprobaciones para autoevaluar si la IA cumple con los requerimientos anteriores.

2 responses to “Cambiemos la IA responsable por la IA fiable”
[…] una creciente necesidad de desarrollar una IA ética, fiable y explicable, que incorpore principios éticos desde su diseño. La organización AI4People propone ocho […]
[…] Lo explico más en detalle en:https://pablohaya.com/2024/07/01/cambiemos-la-ia-responsable-por-la-ia-fiable/ […]