Skip to main content

Episodio 2×14: La IA tiene que ir a clase de filosofía

Episodio 2x14

La IA tiene que ir a clase de filosofía

“El avance de la Inteligencia Artificial en nuestra vida ha dado una relevancia a la Filosofía inédita hasta el momento. No cabe duda que los últimos desarrollos tecnológicos vinculados con la IA han generado una preocupación sobre cuál debe ser su encaje en nuestras vidas”.

Una de las ventajas de aplicar determinados algoritmos de inteligencia artificial para la generación de conceptos es que el sistema tiende a detectar patrones y luego aplicarlos sobre un mar de datos, con el objetivo de predecir y conseguir nuevos contenidos. Detectar patrones es un aspecto clave de este proceso de IA.

Hay que entrenar a la máquina para que vaya aprendiendo, primero en una fase supervisada por humanos y, posteriormente, con un modelo de aprendizaje autosupervisado, dada la ingente cantidad de información a digerir. A partir de aquí, este sistema de inteligencia artificial tendría que ser capaz de generar abundantes propuestas de conceptos. Un ejemplo, el programa Lavender se utiliza para identificar a terroristas, pero no sabemos lo que entiende por terrorista. En el caso del ataque al convoy del chef José Andrés, han declarado que fue un error de identificación. El peligro no es la IA sino la inteligencia humana que es la que en este caso ha utilizado el programa Lavender.

En 2018 el Parlamento Europeo promulgó un reglamento sobre la IA que se ha denominado “derecho a la explicación”.

El derecho a la explicación se refiere al derecho del usuario a conocer cómo funciona un sistema de IA y cómo llega a sus conclusiones. Este derecho implica que las decisiones tomadas por sistemas automatizados deben ser transparentes y comprensibles para los usuarios​. O sea, hay que introducir en la IA un nivel autocrítico.

Conclusión: La única forma de aliviar nuestra vulnerabilidad es desarrollando nuestro pensamiento crítico.

Acceso al podcast

https://d3ctxlq1ktw2nl.cloudfront.net/staging/2024-3-15/a7ab4e45-b313-ed93-6ec4-a4fdd5a1c99a.mp3
https://d3ctxlq1ktw2nl.cloudfront.net/staging/2024-3-15/a7ab4e45-b313-ed93-6ec4-a4fdd5a1c99a.mp3
Episodio 2x14: La IA tiene que ir a clase de filosofía
Loading
/

Únete Un comentario

  • Manuel dice:

    Profesor Marina, Julian Savulescu ha señalado que nuestras capacidades éticas no se han desarrollado a la par que nuestras capacidades tecnológicas, sugiriendo la necesidad de un «biomejoramiento» moral, seguramente a través de técnicas de manipulación genética, entre otras, que reduzca los riesgos que suponen poner en manos de ese «mono listo» que somos, la panoplia tecnológica de la que ya disponemos. Me inclino a pensar que usted no comparte este tipo de soluciones. Frente a ello, considera usted a la educación como una alternativa transformadora suficiente?

Deja tu comentario