Dafna Feinholz: “Los principios éticos irrenunciables de la IA son la transparencia de los algoritmos, la responsabilidad y el acceso equitativo a sus beneficios”

Julio 5, 2018 | Autor: Patricia Morén / neuromimeTICs.org

Foto: ©ITU/D.Woldu

Foto: ©ITU/D.Woldu

La capacidad de las “máquinas” inteligentes de aprender solas, a raíz del trepidante desarrollo de la inteligencia artificial (IA), ha encendido las alarmas respecto a la imperiosa necesidad de elaborar un marco universal de principios éticos relacionados con la IA. Urge abordar esta cuestión y que puedan adherirse el máximo número de países, salvando sus diferencias culturales, en creencias y en valores, comenta en una entrevista concedida a neuromimeTICs Dafna Feinholz, jefa de la Sección de Bioética y Ética de la Sección de Ciencias (SHS/BIO) de la UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) y una de las ponentes en la segunda edición de la AI for Good Global Summit (la Cumbre Global de la IA para el Bien), celebrada en Ginebra (Suiza) en la sede de la ITU del 15 al 17 de mayo de 2018. A juicio de Dafna Feinholz, los principios éticos a los que no se podría renunciar en ese documento universal son la transparencia en los algoritmos, la asignación de la responsabilidad sobre una acción de la IA, el acceso equitativo a los beneficios de la IA, así como la no discriminación y la protección de la confidencialidad y la autonomía. Asimismo, respecto al ámbito médico, sostiene que la IA no puede suponer un detrimento de la relación médico-paciente.


¿No cree que la inteligencia artificial se está viendo más como una amenaza para nuestra sociedad que como una oportunidad?

¿De verdad tiene esa impresión? A mí no me lo parece.

Bueno, durante esta Cumbre Global de la IA para el Bien ha habido algunos ponentes que han recordado el peligro que supone el desarrollo de armas automáticas o de coches autónomos guiados mediante sistemas de inteligencia artificial.

En el caso de la IA, como cualquier otro desarrollo tecnológico, hay que tener en cuenta dos aspectos potenciales: que puede tener beneficios, pero también riesgos. A este respecto, hay dos temas fundamentales que debemos considerar: quién evalúa los riesgos y beneficios y quién los define. Esta cuestión es fundamental, ya que todas las decisiones acerca de qué es bueno y de qué es malo están basadas en valores. Qué es bueno y qué es malo no es otra cosa que los valores. Es la ética por definición.

Por otro lado, no todo el mundo tiene la misma idea o conjunto de valores y no va a concebir los beneficios de la IA de la misma manera. Esta definición de los beneficios y los riesgos también forma parte de la bioética. La UNESCO ha tenido un papel central al respecto, es ahí donde se ha puesto de manifiesto que es muy importante involucrar a todos los afectados en el desarrollo de la tecnología y sus aplicaciones y, para eso, se ha de llevar a cabo la reflexión colectiva: para definir el alcance de los beneficios y riesgos de la IA y alcanzar un punto común en el que todos los implicados puedan estar de acuerdo.

¿Qué labor está realizando la UNESCO en este sentido?

La UNESCO creó en 1993 un Programa de Bioética, fruto del cual han surgido las únicas declaraciones universales de bioética: la Declaración Universal del Genoma Humano y los Derechos Humanos; la Declaración Internacional sobre Datos Genéticos Humanos, la Declaración Universal sobre Bioética y Derechos Humanos; y la Declaración de Principios Éticos en relación con el cambio climático. Pero la IA plantea problemas adicionales, algunos compartidos y otros no. Ese componente adicional es que las máquinas aprenden solas, lo que nos plantea problemas filosóficos: ¿Dónde está el límite de lo humano y lo no humano? Al poner en práctica una aplicación, ¿quién es el responsable y cómo dimensionamos esta responsabilidad?

Las máquinas aprenden solas, lo que nos plantea problemas filosóficos: ¿Dónde está el límite de lo humano y lo no humano? Al poner en práctica una aplicación, ¿quién es el responsable y cómo dimensionamos esta responsabilidad?

¿Entonces, se van a trabajar documentos conjuntos sobre la IA desde la UNESCO?

La UNESCO ya trabaja temas de IA en educación, en comunicación, en ciencias naturales y, desde luego, en ética de la ciencia y la tecnología. COMEST, la Comisión Mundial de Ética de la Ciencia y la tecnología, publicó en 2017 un reporte sobre ética y robótica y, actualmente, se encuentra trabajando en uno sobre los aspectos éticos del internet de las cosas. Un tema muy importante e interesante es la relación entre la IA y la creatividad. Debemos preguntarnos, por ejemplo, ¿qué pasa con los derechos de los artistas? Y, filosóficamente, la creatividad siempre se ha concebido como una característica exclusivamente humana, pero qué pasa cuando una máquina es capaz de crear, de escribir un cuento? La UNESCO quiere posicionarse como el foro multidisciplinar y plural a nivel internacional contando con la sociedad civil, para discutir sobre la IA y reflexionar acerca de la posibilidad de contar un marco ético para el desarrollo de la IA basada en unos principios éticos tanto en la investigación como en las aplicaciones.

¿Por qué, es porque hasta ahora los documentos que se han elaborado son más bien guías parciales y de foros poco representativos?

Ya hay guías y no todas son pequeñas. La Unión Europea presentará unas directrices de principios éticos en IA, lo que no es un foro desdeñable. Pero este tipo de marco ético en IA tiene que ser universal, es necesario que haya un consenso y adhesión a principios de manera global y no solo regional.

Un marco ético en IA tiene que ser universal. (…) es necesario que haya un consenso y adhesión a estos principios de manera global y no solo regional

Y usted se refiere a que la UNESCO es más diversa.

La UNESCO, por definición, es internacional, reúne a más de 195 países de todos los continentes. Digamos que tiene una visión comprensiva de los temas vinculados con el desarrollo de la ciencia y la tecnología, por su vínculo con la cultura y la educación. La función de la UNESCO es sentar a la mesa a actores que no ven una determinada cuestión tan próxima o a los que no es tan fácil involucrar. Tiene una vocación y compromiso en cuanto a la diversidad y a generar un marco ético para desarrollar y aplicar la tecnología basada en unos valores universales a pesar de las diferencias que, además, se aprecian y respetan. La UNESCO está a favor de la diversidad cultural: a pesar de las diferencias, siempre hay ciertos valores universales a los que todos nos adherimos.

Como ejemplo, para elaborar la Declaración Universal de Bioética y Derechos Humanos se hizo una consulta a distintas religiones, grupos profesionales y étnicos, entre otros, y se pudo llegar a un consenso. No importa que uno sea de la misma religión o no, para adherirse; además de que es importante recordar que prácticamente ninguna religión es monolítica. Para elaborar estas declaraciones hay una flexibilidad, no surgen de algo monolítico, sino de unas bases comunes de manera que distintas personas, con independencia de dónde vivan o provengan, puedan reconocerse en ellas.

Foto: neuromimeTICs

Foto: neuromimeTICs

¿Cuáles son esos valores universales a los que no se podría renunciar en una futura posible declaración universal o elaboración de principos éticos en IA por parte de la UNESCO?

La transparencia en cómo se programan los algoritmos; la responsabilidad, puesto que tiene que haber algún responsable de las acciones de la IA; la equidad en el acceso a los beneficios de la inteligencia artificial, así como la no discriminación y la protección de la confidencialidad y la autonomía.

La IA nos puede servir, pero nunca debe ser un sustituto de la relación médico-paciente

De hecho, en la Cumbre Gobal de IA para el Bien ya se ha debatido un poco sobre esta necesidad de acordar principios en diversos ámbitos, entre ellos, en el sistema sanitario, sesión en la que usted ha sido una de las ponentes.

En Medicina es muy importante saber juzgar la fiabilidad de la fuente cuando se construye una aplicación para teléfonos, por ejemplo, de dónde procede la información; es importante poder comunicarse con el paciente y determinar la responsabilidad de un acto médico a pesar de que se haya apoyado en IA. La IA nos puede servir, pero nunca debe ser un sustituto de la relación médico-paciente. Debe ser una gate o puerta para acceder al médico y es imprescindible la educación al médico para que sepa atender a sus pacientes. El juramento hipocrácito ya decía “primero no dañar”. Ahora, a pesar de las restricciones de tiempo del sistema sanitario a los doctores y de que los médicos tengan poco tiempo, la relación médico-paciente debe mantenerse.