“Autonomía” es un concepto con brillante historia. Significa “darse normas a sí mismo”. Desde Kant designa la capacidad humana para tomar decisiones inteligentes, es decir, libres. En ella se funda la dignidad personal. El avance de la Inteligencia Artificial ha planteado el problema de si se puede extender la noción de autonomía a las máquinas inteligentes. Lo ha tratado la Comisión Europea en su informe Inteligencia artificial, robótica y sistemas autónomos. Estos son los que provocan más perplejidad. Se ha avanzado en la tecnología para el automóvil de conducción autónoma, o en los Sistemas Autónomos de Armas letales, que presentan problemas jurídicos y éticos muy importantes, pero a los autores del informe les preocupan sobre todo los problemas planteados por las tecnologías cognitivas utilizadas por la IA, que son cada vez más opacas. Google Brain desarrolla una Inteligencia Artificial que, al parecer, puede diseñar programas mejor y más rápidamente que los humanos. El aprendizaje profundo (Deep Learning) y el uso de redes generativas antagónicas (generative adversarial networks) hace posible que las máquinas se enseñen a sí mismas nuevas estrategias, que -esto es lo inquietante- resultan indescifrables para la observación humana. No podemos saber por qué la máquina ha tomado una decisión, decisión que puede provocar efectos no previstos. Pondré un ejemplo sencillo. En 2016, Microsoft lanzó TAY, un bot conversacional que había creado para Twitter. Estaba diseñado para aprender conversando con jóvenes. A las 16 horas, Microsoft cerró la aplicación porque las respuestas que había aprendido eran racistas, sexistas y cargadas de contenido sexual. Roman Yampolskiy, investigador en IA, comentó que el comportamiento de Tay era comprensible, porque imitaba el comportamiento de otros usuarios de Twitter, y Microsoft no había entregado al bot unos criterios de comportamiento adecuado.
La opacidad de los sistemas de IA puede ser estratégica o intrínseca. La opacidad estratégica es aquella que se podría eliminar explicando sus mecanismos. Google oculta la selección que hacen sus buscadores. Se han descubierto sesgos inaceptables en distintos programas, que se pueden corregir. En el 2014, Amazon lideró una iniciativa para la selección de personal basada en un sistema computacional. La iniciativa tuvo que suspenderse, dado que favorecía a los candidatos masculinos. En el 2016, la iniciativa Sesame Credit, creada por Alibaba para el mercado chino, generó polémica al efectuar calificación crediticia basada en métricas sociales, en la que los ciudadanos chinos no solo se veían afectados por su comportamiento crediticio, el uso de tarjetas de crédito y el pago regular de sus deudas, sino que, además -en virtud del algoritmo de la plataforma- por su comportamiento en redes sociales o el tipo de compras que hacían on line. Las razones de estos sesgos se pueden detectar en los algoritmos.
No ocurre así con la opacidad intrínseca. No resultan comprensibles para la inteligencia humana. No podemos saber lo que han aprendido los sistemas de aprendizaje automático. Se puede decir que sabemos cómo funciona el sistema, pero no por qué ha tomado una decisión en particular.
La comparación de este comportamiento con los humanos resulta muy instructivo. Los sistemas de Inteligencia Artificial no saben lo que hacen. Tampoco nosotros sabemos por qué pensamos lo que pensamos, sentimos lo que sentimos o deseamos lo que deseamos. Estoy escribiendo y las frases aparecen en mi conciencia. No sé cuál será la próxima. Solo conozco vagamente lo que quiero escribir y espero que mi cerebro realice la increíble tarea de dar a esa imprecisa intención la forma de una frase, con una sintaxis y un léxico concreto que él se ha encargado de buscar. Imaginemos una persona envidiosa. No quiere serlo, se avergüenza de serlo, pero no puede evitarlo. Pensemos un caso más complejo: la orientación sexual o la identidad sexual. La persona homosexual o la persona trans no sabe por qué desea lo que desea. Y si pasamos a la patología, los casos son bien conocidos. ¿De dónde emergen las compulsiones, las obsesiones, las depresiones? ¿Somos entonces robots dirigidos por programas implantados en nuestros cerebros? No, porque a partir de esa primera capa generadora de ocurrencias cognitivas y afectivas nuestro cerebro ha adquirido la capacidad de reflexionar sobre ellas, someterlas a evaluación y poder aceptar o rechazar sus propuestas. Son lo que llamamos “funciones ejecutivas”, que constituye el nivel más alto de la inteligencia humana.
Pondré dos ejemplos. Los programas informáticos para jugar al ajedrez tienen dos módulos. Uno de ellos se encarga de calcular posibles jugadas. Deeper Blue, el programa que venció a Kasparov, podía calcular 200 millones de posiciones por segundo. Eso era fuerza de computación bruta. Lo difícil venía después: ¿cómo sabía la máquina cuál de esas jugadas era la mejor, la que había que jugar? Ese era el secreto mejor guardado de IBM, un análogo a las funciones ejecutivas de nuestro cerebro.
El segundo ejemplo es humano. Henri Poincaré fue uno de los grandes matemáticos de la historia, a quien le intrigó el modo como se le ocurrían sus demostraciones matemáticas. Tenía la impresión de que se resolvían, aunque no estuviera pensando en ellas y llegó a la conclusión de que su cerebro lo hacía a un nivel no consciente. Sin embargo, no podía fiarse de esas ocurrencias emergentes y debía someterlas a crítica para comprobar si estaban bien fundadas o no. Daniel Kahneman, premio Nobel de economía, ha llegado a la misma conclusión, en su libro Pensar rápido, pensar despacio, en el que reconoce un Sistema 1 de pensamiento rápido, intuitivo, y poco de fiar. Y un Sistema 2, reflexivo, lento y fiable. Por mi parte, llamo al primero inteligencia generadora y al segundo inteligencia ejecutiva.
Es este segundo nivel, que por el momento no tienen las máquinas, lo que funda la autonomía de los humanos. Si ese nivel superior, crítico, reflexivo, que evalúa las ocurrencias que emergen de las profundidades computacionales de nuestro cerebro desaparece, nos robotizamos. Es entonces cuando perdemos nuestra autonomía y se la transferimos a la máquina. Según el informe The Decision Dilemma, elaborado por Oracle y Seth Stephens-Davidowitz, el 45% de los empresarios españoles prefieren que las decisiones las tome la Inteligencia Artificial. ¿Hasta dónde puede llegar esa transferencia de funciones?