IA = Automatizar lo inefable

En este video de apenas cinco minutos, Cassie Kozyrkov resume en qué consiste la Inteligencia Artificial (IA) en solo tres palabras: automatizar lo inefable (en inglés, Automating the Ineffable*). Este lema, al más puro estilo Less is More de Mies Van der Rohe, me parece que condensa como ninguna otra definición qué es la IA.

Está claro que automatizar tiene que estar presente, de alguna u otra manera, en una definición sobre la IA. La A de artificial recoge la aspiración de crear una inteligencia escapando de los métodos naturales. La automatización sería el proceso de describir computacionalmente los procesos cognitivos necesarios para construir esa inteligencia artificial. ¿Pero cómo vamos a describir algorítmicamente los procesos mentales si no somos capaces de explicarlos? Y aquí entra la segunda parte de la definición: lo inefable.

Efectivamente, la inteligencia, o más concretamente lo que llamamos mente o consciencia, es inefable (al menos a día de hoy). En palabras de Patricia Tezanos tenemos dos grandes problemas para explicar que es la consciencia: uno suave y otro duro. El problema suave (soft problem) es que ignoramos cómo trabaja el cerebro para hacer emerger la consciencia. El problema duro (hard problem) es que no sabemos cómo a partir de algo material y objetivo como el cerebro aparece algo inmaterial y subjetivo como la mente, esto es, cómo a partir del mundo material surge el mundo de las ideas. Este segundo problema va más allá del aspecto funcional, y plantea una cuestión que se sitúa en la frontera de lo que podemos conocer científicamente**.

Si la IA pretende emular la inteligencia humana, y no somos capaces de explicar en qué consiste ni cómo funciona, entonces necesitamos algoritmos que imiten el comportamiento sin necesidad de entenderlo. Aquí entra en juego el aprendizaje automático (en inglés, machine learning) que se basa en codificar con ejemplos lo que un programador no puede expresar con reglas. De esta manera, no es preciso entender cómo funciona el cerebro para poder describir el comportamiento del mismo. Los algoritmos se entrenan con ejemplos de entradas y respuestas correctas, y son capaces de aprender un modelo que aprenden los patrones que asocian las entradas a las respuestas. Este podría ser el caso de un clasificador de correo indeseado (spam) que ha sido entrenado con ejemplos de correos válidos y correos basura. Cuando llega un nuevo correo es capaz de asignarle la etiqueta correcta (o al menos la mayor parte de las veces).

Volviendo a la definición de qué la IA consiste en automatizar lo inefable, de ésta se desprende que el concepto de IA explicable (XIA, en inglés Explainable AI)  es un oxímoron. Si es una IA,  no puede explicarse por la propia definición. Así, se establece una condición necesaria para poder referirse a un sistema como inteligente. Un algoritmo que permita explicar la decisión que ha tomado no puede ser inteligente, de la misma manera, la inteligencia natural no puede explicar cómo toma las decisiones. En concreto, un sistema implementado con una regresión lineal o logística, o un árbol de decisión no deberíamos llamarlo IA.

Esta definición impacta sobre aspectos éticos de profundo calado. Por ejemplo, en la carta de Derechos Digitales se establece el derecho a qué los sistemas de IA aseguren su transparencia, auditabilidad, explicabilidad y trazabilidad. Este derecho colisiona con la propia definición que estamos discutiendo. Si la toma de decisiones de los sistemas IA no es explicable, como vamos a garantizar la explicabilidad. En cambio, sí que aplica a otro tipo de sistemas basados en técnicas que por su simplicidad permiten una explicación transparente y clara de en qué han basado su decisión. 

Creo que estamos lejos de construir una IA general capaz de emular la inteligencia humana***. En este camino resolvemos tareas parciales y muy específicas en las que imitamos el comportamiento humano. IA es un término extremadamente ambicioso que requiere contextualizarlo a las tecnologías que disponemos actualmente si no queremos devaluarlo. No todos los sistemas basados en algoritmos de aprendizaje automático merecen esa denominación, lo cual no significa que los algoritmos más sencillos sean inútiles. Al contrario suelen ser una gran solución de compromiso en la mayoría de los casos reales donde no tiene por qué ser necesario incluir una IA. 

Por último, hay que tener en cuenta que los algoritmos resuelven las tareas de manera radicalmente distinta al ser humano. Se basan en formulación matemática que es más compleja cuanto más se asemeja la tarea a lo que entendemos por IA. En este punto de sofisticación, no es que no se pueda explicar cómo toman decisiones los algoritmos, es que nadie entiende la explicación. Es comprensible la preocupación de la sociedad por las implicaciones que conlleva convivir con sistemas artificiales que toman decisiones de manera autónoma. Ahora bien, me temo que a medida que incrementemos la complejidad de estos sistemas, la confianza que depositemos en los mismos pasará por tener sistemas ultra-probados, que garantizen que funcionen en la inmensa mayoría de las situaciones, más que disponer de manuales de cómo funcionan super detallados.

* Fijaos que las siglas en inglés de Artificial Intelligence (AI) se pueden utilizar como regla nemotécnica de la propia definición Automating the Ineffable (AI).

** Depende de a quién le preguntes te dirá que está a un lado u otro de la frontera.

*** A día de hoy dudo que podamos construir una inteligencia artificial general, o al menos, yo no veo que se esté siguiendo un plan claro que asegure un éxito a medio o largo plazo.