Rafael Calvo: “El reto que tenemos en IA es diseñar tecnologías que apoyen el bienestar psicológico”

Octubre 10, 2018 | Autor: Patricia Morén / neuromimeTICs.org

Foto: neuromimeTICs

Foto: neuromimeTICs

El Dr. Rafael Calvo es profesor y director del Well-being Technology Lab (Laboratorio para la Tecnología del Bienestar) de la Universidad de Sidney y ARC Future Fellow. El Dr. Calvo, que también es coautor de Positive Computing. Technology for wellbeing and human potential(Computación positiva. Tecnología para el bienestar y el potencial humano), junto a la diseñadora Dorian Peters, defiende como un auténtico adalid la consideración de la ética desde el inicio del diseño de la tecnología; al respecto, enfatiza que hasta ahora se ha prestado mucha atención al diseño ergonómico de la tecnología, para procurar el bienestar físico de los usuarios, pero no tanto al diseño que busca el bienestar psicológico. Como líder de la Human Computing Interaction o Interacción Humano-Computadora y de la Computación Positiva, piensa que los propios ingenieros no deben descuidar esta visión ética en el diseño de cada nuevo proyecto tecnológico. El Dr. Calvo habla sobre todas estas cuestiones, así como de sus principales proyectos que relacionan la inteligencia artificial con la salud mental, en una entrevista concedida a neuromimeTICs en la segunda edición de la Cumbre Global de la IA para el Bien (AI for Good Global Summit), organizada por la Unión Internacional de Telecomunicaciones (ITU) y celebrada en Ginebra, del 15 al 17 de mayo de 2018.

Uno de estos proyectos tiene que ver con el Día Mundial de la Prevención del Suicidio, que se celebra el 10 de septiembre, pues consiste en el uso de la IA para ayudar a prevenir el suicidio entre los jóvenes y adolescentes, y con el Día Mundial de la Salud Mental, el 10 de octubre, y que este año también está dedicado a los jóvenes.


¿En qué línea está trabajando actualmente su grupo relacionando la inteligencia artificial con la salud mental?

Nuestro grupo de trabajo se centra en la Interacción Humano-Computadora y la Computación Positiva, buscando mecanismos de diseño de técnicas que ayuden a hacer tecnologías que apoyen el bienestar psicológico, así  como ideas de modelos psicológicos para fomentar la salud y el bienestar psicológico, que son muy similares a los que promueven confianza. Utilizamos tecnologías de diseño controlado en el humano. Actuamos con la participación de la audiencia. Evaluamos todo el proceso. Como audiencia, esta no se centra tanto en el problema de la tecnología, sino en visualizar el problema de la salud mental, que constituye un problema porque se asocia a un estigma muy serio. ¿Cómo podemos llevar este problema al diseño, considerando el lenguaje, las imágenes, para atraer a gente? Algo muy importante que hemos constatado en nuestra experiencia en Australia, donde el lenguaje era muy médico, es que si el lenguaje es muy médico, se tiende a aumentar el estigma. Usar un lenguaje de promoción del bienestar es más efectivo. La gente no siente tanto este estigma.

Esta cumbre se ha centrado mucho en la ética y su relación con la IA. ¿Cómo se imbrica la ética con las nuevas tecnologías que se están desarrollando?

Se intenta que la ética esté desde el mismo diseño de una nueva tecnología. Para mí la ética es el estudio y la actividad para fomentar los modelos que significan la buena vida, que es lo que define muchas decisiones éticas. Distintas culturas tienen distintos modelos éticos y distintas interpretaciones de cómo funciona la sociedad y la psicología humana.

En segundo lugar, tengo que decir que, en el campo de la ingeniería, un número importante de ingenieros nos hemos dado cuenta de que la tecnología tiene los valores de aquellos que la diseñan. Como diseñadores debemos ser consientes de nuestros valores, tanto como de los valores de otras personas.
 

 

Un número importante de ingenieros nos hemos dado cuenta de que la tecnología tiene los valores de aquellos que la diseñan

 

Quizás están pasando muchas cosas relacionadas con la IA que evolucionan en paralelo y muy rápido, que dificultan la toma de decisiones desde el punto de vista ético.

Hay una contradicción, un debate en cuanto a quién decide cuáles son los modelos éticos a seguir. Un problema o dificultad que tenemos es hacer algo centrado en los usuarios, en la gente. Mientras no haya una regulación y las empresas decidan por ellas mismas cómo mejorar ellas van a gobernar las reglas del juego. Respecto a la regulación de la IA hay que considerar dos aspectos: Quién regula a quién y, si la regulación no es muy buena, el problema que vamos a tener es que las empresas tecnológicas son universales. Una regulación en Europa puede tener un impacto en Estados Unidos, por ejemplo, o la falta de regulación puede tener un impacto en Europa o en Asia.

Muchas de estas tecnologías de IA están creciendo muy rápido en Asia, en China y Rusia.

Mediante la recopilación de ciertos datos, el lenguaje, la voz, lo que cuenta sobre su vida, se puede inferir la salud mental de una persona, basándonos en aproximaciones

También tengamos en cuenta a Estados Unidos, con Google, Facebook, y sí, por supuesto, a China. El Gobierno chino está invirtiendo más dinero que el americano o los europeos en IA. Creo que está habiendo una revolución en todo el desarrollo de la IA pero no con fondos gubernamentales sino por parte de cuatro o cinco empresas grandes. Pensemos en el The Partnership on AI. Entre las chinas, figura Tencent, una de las más grandes, que está invirtiendo mucho en IA, lo que está teniendo un impacto en más de un billón de personas.

¿Cuál es el ‘state of the art’ o situación en estos momentos del machine learning en salud mental?

Con información sobre los individuos se puede aumentar la predicción de poner etiquetas a las personas, esto es, identificar a ciertas personas con cierta sintomatología. Mediante la recopilación de ciertos datos, el lenguaje, la voz, lo que cuenta sobre su vida, se puede inferir la salud mental de una persona, basándonos en aproximaciones. Es similar a lo que uno hace en epidemiología. Es como hacer epidemiología en tiempo real con más información que se junta al hacer preguntas a una persona. Pero es un tema en el que tenemos que tener mucho cuidado porque las etiquetas también reflejan una estructura de poder, de interpretación cultural que las investigaciones, en general, no suelen considerar. Si una persona aparece etiquetada como deprimida o nerviosa esta etiqueta da una posición de poder sobre la persona que está siendo etiquetada de riesgo.

¿A qué se refiere? ¿Puede ser más preciso?

Facebook y los social media tienen unos algoritmos que, si detectan un riesgo o problema de salud mental, por ejemplo si una persona habla de suicidio, pueden activar protocolos para que esa persona pueda ser seguida y llamada por la policía o servicios de salud.

El Dr. Calvo en la segunda edición de la  Cumbre Global de la IA para el Bien (AI for Good Global Summit)  Foto: neuromimeTICs

El Dr. Calvo en la segunda edición de la Cumbre Global de la IA para el Bien (AI for Good Global Summit)
Foto: neuromimeTICs

¿Cómo lo detecta?

Por lo que se escribe en Facebook. En Estados Unidos, como uno puede formular preguntas de salud mental en Google, le llega información relevante para ayudarle.

A no hacerlo.

Por supuesto. Para ayudar a la persona a encontrar ayuda médica. Siempre es difícil, porque siempre hay alguien con una página web de cómo matarse y habría que ver cómo hacer para borrarla.Pero, como le comentaba las llamadas técnicas de procesamiento del lenguaje natural (NLP) permiten hacer inferencias del estado de salud mental de los textos que escriben las personas en Facebook, Twitter o en otros social media, a fin de dirigir información sobre salud y asistencia online a estas personas e incluso generar intervenciones personalizadas. Recientemente yo mismo junto a otros autores hemos publicado una revisión de la literatura sobre ello en Natural Language Engineering donde exponemos los focos en los que se ha centrado la investigación hasta ahora, muy dispersa, y pretendemos buscar un lenguaje común entre la NLP, la Interacción Humano-Computadora y la salud mental.

¿En qué consiste la aplicación en la que ha trabajado su grupo para prevenir el riesgo de salud mental?

Hay muchas herramientas de psicología que usan modelos estadísticos para predecir el riesgo de salud mental en función de parámetros psicosociales. Son modelos que permiten predecir el riesgo de salud mental, según la familia, el contexto laboral, la situación socioeconómica, la edad o el sexo, etcétera. La aplicación se llama HeadGear, de la Universidad de Sidney, y calcula el riesgo de la enfermedad mental en función del riesgo por diferentes cuestiones. Este cálculo lo hace un algoritmo estadístico, no estamos hablando ahora de machine learning.

¿Qué otros avances se han realizado utilizando la inteligencia artificial a favor de la salud mental?

Hay una ONG, una comunidad en Australia, que tiene 1,8 millones de usuarios, cuya funcionalidad son los foros de discusión. Los jóvenes entran en ella y hacen preguntas. Escriben comentarios como “soy gay y no sé cómo decírselo a mi padre y a mi madre”. Se expresan y se apoyan; se prestan un apoyo de igual a igual. Entran muchos mensajes y los moderadores tienen que priorizarlos. Unos algoritmos automáticamente lo triangulan, de manera que el sistema los divide en verde (no urgente), amarillo (responder), rojo (hay que responder) y super rojo, con un signo de exclamación, cuando el usuario está hablando de riesgo de suicidio, se puede hacer daño a sí mismo o a otras personas. En ese caso, hay que actuar más rápido, en tiempo real. Los moderadores de los foros deben priorizar el tiempo y responder a estas emergencias. Como decía, Reachout Australia tiene una comunidad enorme de usuarios jóvenes y una funcionalidad crucial, la vida, con material de apoyo para ayudar a jóvenes con problemas relacionados con la sexualidad, la comunicación, las drogas, el alcohol o el abuso de sustancias en general.

¿Y el proyecto que ha desarrollado su grupo para ayudar a médicos psiquiatras en formación, en qué consiste?

Se trata de EQClínic, una plataforma online para enseñar a los alumnos de medicina y de psiquiatría cómo mejorar sus habilidades de comunicación y empatía con los pacientes. No está pensada para psiquiatras, sino para alumnos de medicina. Funciona de manera que un actor que simula ser un paciente interactúa por teleconferencia con el alumno de medicina. El sistema reconoce de forma automática las expresiones faciales del médico, si esboza una sonrisa, etcétera. Y permite realizar un análisis del comportamiento no verbal del médico, mediante el uso de algoritmos de análisis visual por computadora, entre otras prestaciones.

En definitiva, ¿cuál cree usted que es el reto en el diseño de nuevas tecnologías de IA?

El reto es cómo diseñar tecnologías que apoyen el bienestar psicológico, que significa la ética. Estas definiciones cambian con la cultura. Desde el punto de vista de la tecnología, deben ser suficientemente amplias como para que esta actúe como catalizador de bienestar, con herramientas que puedan tener un efecto en distintos grupos sociales, incluso minoritarios, que puedan ser de un mismo país. Hasta ahora no se ha considerado que en una misma localidad pueda haber distintos grupos sociales integrados por personas con poco poder económico o minorías raciales, a la hora de garantizar ese bienestar psicológico.

¿Y cómo se puede lograr este reto?

Mediante la búsqueda de algoritmos con cierto sesgo (bias). Hay muchos ejemplos, como en Estados Unidos, donde la comunidad negra no recibía avisos de publicidad sobre seguros de vida. En estos casos, habría que aumentar las posibilidades de que los recibiran o reparar la situación, ya que de otro modo sería menos probable que contrataran seguros. O se ha visto que la mujer tiene menos posibilidades de recibir un aviso para estudiar ingeniería, entre otros casos.

Cinco claves para diseñar tecnologías con bienestar psicológico

Diseñar tecnología pensando en el bienestar psicológico de los usuarios no es una entelequia, sino una opción factible aplicando un modelo llamado METUX. Este modelo se basa en cinco claves y ha sido expuesto por el Dr. Rafael Calvo y otros colegas en un artículo publicado en Frontiers in Psychology en mayo de este año 2018. METUX son las siglas inglesas de Motivation, Engagement and Thriving in User Experience (Motivación, compromiso y prosperidad en la experiencia del usuario). Se trata de un modelo que proporciona un marco, que se fundamenta en la investigación psicológica, para ayudar a los investigadores y profesionales que trabajan en la Interacción Humano-Computadora con ideas útiles y aplicables a discernir sobre qué tecnologías apoyan y cuáles socavan las necesidades psicológicas básicas del usuario.

El objetivo es aumentar la motivación y el compromiso de los usuarios respecto a una tecnología y, en última instancia, mejorar su bienestar. Para lograrlo,el Dr. Calvo y sus colegas definen en su artículo cinco esferas de experiencia clave en las que se tienen que considerar y analizar qué necesidades psicológicas tienen los usuarios:

  • En el momento de la adopción de la tecnología
  • Durante la interacción con la interfaz
  • Como resultado del compromiso con la tecnología, las tareas específicas de dicha tecnología
  • Como parte de la tecnología, el apoyo al comportamiento del usuario

  • Como parte de la vida de un individuo en general

Por último, señalan que estas cinco esferas de experiencia del usuario se deben considerar dentro de una sexta, la sociedad, que comprende tanto los efectos directos y colaterales del uso de la tecnología como las experiencias no relacionadas con el usuario.

Fuente: frontiersin.org/articles/10.3389/ fpsyg.2018.00797/full