Pienso ahora, como pensaba entonces durante aquellas interesantes reuniones del EAB, que el problema ético real está en otro sitio. Creo que no se puede hablar del progreso general de la tecnología, more Pinker (ver QSY de 12/10/2019), como si se tratara de un único plano inclinado por el que una Humanidad cada vez más ilustrada avanza hacia un futuro luminoso. La IA sirve para jugar, para producir y vender, para curar, y también (¿sobre todo?) para matar. Es posible que haya que desarrollar una ética (de la deliberación) interna para sistemas que simulan acciones o decisiones humanas, pero lo realmente prioritario es desarrollar una reflexión ética sobre el uso humanamente, vitalmente, adecuado de la IA.
El ser humano es un animal, el animal más complejo, dotado de instrumentos, y parece claro que esos instrumentos han contribuido decisivamente, evolutivamente, a esa alta, máxima, complejidad. Podemos pensar que el instrumento más complejo y sofisticado está siempre por llegar, como resultado del progreso tecnológico colectivo; y también podemos pensar, con cierto giro de la mirada, que no, que el instrumento más complejo es este que nos ha acompañado desde el origen, y que utilizamos siempre que hablamos, pensamos o escribimos, el lenguaje y el pensamiento humanos. El instrumento que nos hace y nos permite ser lo que somos. De eso no ha dejado de hablarnos desde hace muchos años Emilio Lledó. El desarrollo tecnológico (en las fases sucesivas que presenta Félix Duque en su texto) ha permitido simular, con eficacia creciente, una parte (mínima) de ese instrumento original en máquinas, y eso es lo que hoy conocemos como IA.
"Pues si cada uno de los instrumentos pudiera cumplir por sí mismo su cometido obedeciendo órdenes o anticipándose a ellas, si, como cuentan de las estatuas de Dédalo o de los trípodes de Hefesto, de los que dice el poeta que entraban por sí solos en la asamblea de los dioses, las lanzaderas tejieran solas y los plectros tocaran la cítara, los constructores no necesitarían ayudantes ni los amos esclavos."*** Así reflexionaba Aristóteles (Política I, 1253b) sobre una imaginaria autonomía de algunos instrumentos mecánicos de su tiempo. Una mayor autonomía de los instrumentos externos simulando algo de nuestro instrumento fundamental ("obedecindo órdenes o anticipándose a ellas") tendría (y ha tenido, manifiestamente) consecuencias para la organización de la pólis, esto es, políticas (y sabemos que para Aristóteles la Ética era una introducción a la Política).
Aunque la reflexión ética contemporánea es mucho más sofisticada, y también la política, creo que no deberíamos perder esa perspectiva fundacional, en la que late la teleología aristotélica. ¿Para qué cada cosa? Para la vida, y principalmente para la vida humana, la mejor que se pueda alcanzar. Esa debería ser la dimensión ética de la IA.
* https://www.elmundo.es/papel/lideres/2019/02/22/5c6d378cfc6c83f76a8b4773.html. Una entrevista similar, que aborda alguna cuestión adicional, puede encontrarse en https://elcultural.com/jose-ignacio-latorre-estamos-cerca-de-conseguir-que-los-robots-sientan-emocion.
** Félix Duque. Filosofía de la técnica de la naturaleza. Abada Ed., Madrid, 2019.
*** Traducción de Manuela García Valdés. Ed. Gredos, Madrid, 1988.
(Encuentro en un texto de Roberto Esposito la referencia al verso de la Ilíada citado por Aristóteles: XVIII, 376. Esposito R. Personas, cosas, cuerpos. Madrid: Trotta, 2017. p. 36)