Reading Time: 3 minutes
Entrevista a Àtia Cortés, investigadora postdoctoral en el Centro de Supercomputación de Barcelona (BSC) , sobre Construyendo un sistema investigativo más inclusivo para un mundo mejor.“Necesitamos un enfoque feminista e interseccional para mitigar las desigualdades”
Àtia Cortés es investigadora postdoctoral en el Centro de Supercomputación de Barcelona (BSC) y codirige el Observatorio de Sociedad e Inteligencia Artificial de AI4EU, que pretende reunir a la comunidad IA y a la vez promover los valores europeos y convertirse en un catalizador de conocimiento. Sus intereses giran en torno a las áreas de la ética de la IA, la igualdad de género y la gastronomía. Aborda su investigación en los aspectos éticos, legales, sociales y culturales de la inteligencia artificial con una perspectiva feminista e intersectorial y con una profunda esperanza en la tecnología confiable y un mundo más justo. Àtia es graduada en Ingeniería Técnica en Informática de Sistemas y tiene un máster en Inteligencia Artificial por la Universidad Politécnica de Cataluña.
¿Cuál es el objetivo principal de tu grupo de investigación?
Nuestra unidad tiene como objetivo crear un tipo de hub entre la comunidad científica y la sociedad. Estamos alineados con los Objetivos de Desarrollo Sostenible de las Naciones Unidas para contribuir en áreas de investigación clave como la salud y el bienestar, la igualdad de género o la reducción de las desigualdades. Nos centramos particularmente en dos temas: el estudio de los patrones de desinformación, especialmente en las redes sociales con el tema de la salud; y la inclusión de la perspectiva de género en la investigación biomédica.
¿Por qué es fundamental que la ciencia garantice una mejor comprensión del impacto social de ciertos proyectos?
Como toda nueva tecnología, la medicina personalizada y la inteligencia artificial aún son algo desconocidas por la sociedad. Es esencial involucrar a los ciudadanos a través de métodos participativos y crear equipos multidisciplinarios para reunir a la comunidad científica y una más humanista, y lograr la inclusión social, la equidad y la confianza.
Tienes especial fijación por la ética de la inteligencia artificial. ¿Cómo dirías que ha evolucionado la IA desde una perspectiva social en la última década, especialmente después de la pandemia?
En el caso de la inteligencia artificial, y en particular del aprendizaje automático, se ha producido un giro hacia una perspectiva ética. Antes, evaluábamos sistemas centrándonos en métricas de rendimiento como la exactitud, la precisión o las medidas de error. En los últimos años hemos visto que esto no es suficiente. Especialmente cuando la IA tiene un impacto directo en los humanos, debemos comprender cuáles son las consecuencias de tener predicciones o clasificaciones incorrectas, incluso si el porcentaje es muy bajo.
En este sentido, ¿el futuro venidero es esperanzador para una IA ética?
No lo sé. Lo que sé es que ha habido un auge de publicaciones o comunicados sobre inteligencia artificial y ética, documentos, directrices, estrategias nacionales… Ahora todo el mundo está intentando contribuir a ello, desde los sectores públicos y privados, los gobiernos, la Comisión Europea. Es un paso importante empezar a reflexionar sobre esto, a intentar de alguna manera trasladarlo a la sociedad para hacerles comprender cuáles son las capacidades pero también las limitaciones de la inteligencia artificial, las consecuencias de la interacción.
Una tecnología más fiable e inclusiva en Europa: ¿vamos por buen camino?
Sí, pero hay que tener en cuenta que la mayoría de las grandes empresas tecnológicas no están en Europa. Consumimos mucha de esta tecnología y producimos millones de datos cada día para ellos. Por lo tanto, debemos ver cómo esta visión europea de la inteligencia artificial confiable y centrada en el ser humano se alineará y combinará con otras tecnologías en el resto del mundo. Para lograr la confianza y, en general, el desarrollo responsable de la tecnología, la educación y la concienciación hacia los que toman decisiones son clave. Necesitan adoptar todo este conocimiento y ponerlo en práctica desde la etapa inicial del desarrollo del sistema de IA. Nosotros, como sociedad, también debemos comenzar a asumir la responsabilidad de nuestro uso e interacción con la tecnología.
Abordas la investigación desde una perspectiva feminista y transversal. ¿Por qué?
Las mujeres han sido excluidas de los ensayos clínicos durante décadas. Cuando estábamos creando nuevos medicamentos y aprendiendo de alguna enfermedad, ese conocimiento no era completo porque estábamos dejando fuera a la mitad de la población. Esto ha demostrado tener un impacto severo en la salud de las mujeres. Tenemos poco conocimiento de los síntomas de las enfermedades y de los efectos del tratamiento en comparación con los hombres. Esto se amplifica aún más si pensamos en mujeres de color y otras minorías sociales o étnicas. Hoy en día, con el uso de la inteligencia artificial, esto también podría intensificarse aún más si pensamos en el aprendizaje automático o en los sistemas autónomos de toma de decisiones, ya que estarán aprendiendo a partir de conjuntos de datos que ya están sesgados. Es importante concienciar de ello, primero, a los consumidores, a la sociedad; pero también a los que toman decisiones y crean políticas, para hacerles entender que esto ha sido tradicionalmente construido por y para hombres blancos, cis, de mediana edad, ricos. Necesitamos una perspectiva feminista e interseccional para mitigar las desigualdades.