Fwd: Invitación seminario Ana Valdivia: ¿Está la inteligencia artificial vulnerando los derechos LGTBIQ+?

--------------------------------------------------------------------------------- Daniel Manzano Electromagnetism and Condensed Matter Department Institute “Carlos I” for Theoretical and Computational Physics University of Granada Facultad de Ciencias, Av. Fuentenueva s/n Granada 18071, Spain Phone: +34 958241000 Ext: 20569 http://ic1.ugr.es/manzano/ http://ic1.ugr.es/manzano/
Begin forwarded message:
From: Juani Bermejo Vega
Subject: Invitación seminario Ana Valdivia: ¿Está la inteligencia artificial vulnerando los derechos LGTBIQ+? Date: 1. September 2021 at 19:16:19 CEST To: materia@onsager.ugr.es, Daniel Manzano Estimades compañeres,
Os deseamos un buen retorno a la Universidad y os invitamos al siguiente seminario (semipresencial), que organizamos Dani y yo con una colaboradora que nos visita de King´s College. Ruego que me escribáis si deseáis asistir en persona ya que el aforo presencial estará limitado (aún no sabemos cuántas plazas habrá).
¿Está la inteligencia artificial vulnerando los derechos LGTBIQ+? Hacia una mirada interseccional, decolonial y feminista de los algoritmos
Ponente: Ana Valdivia, King’s College London. Modera: Jara Juana Bermejo-Vega, Universidad de Granada Cuándo: 6 de septiembre · 12:00 –13:00, UTC+02:00
¿Cómo asistir?: Online: https://meet.google.com/nmy-uace-mgh https://meet.google.com/nmy-uace-mgh Presencialmente (con registro): Aula F1, Facultad de Ciencias de la Universidad de Granada
Registro: por email a jbermejovega@go.ugr.es mailto:jbermejovega@go.ugr.es
Abstract: En la última década, el avance de la inteligencia artificial (IA) y su uso por parte de élites económicas y gubernamentales ha presentado diferentes conflictos éticos vulnerando los derechos humanos de colectivos históricamente oprimidos, como el LGTBIQ+. Desde algoritmos que clasifican incorrectamente cuerpos trans en escáners de seguridad hasta sistemas de reconocimiento facial diseñado para clasificar nuestra orientación sexual muestran la falta de una mirada feminista y el exceso de tecno-solucionismo dentro de los equipos que diseñan y contratan estas tecnologías. En esta ponencia, analizaremos la historia y epistemología de sistemas socio-técnicos que impactan directamente en las vidas no normativas. Exploraremos diferentes proyectos basados en inteligencia artificial y evaluaremos sus riesgos y limitaciones desde una mirada interseccional, decolonial y feminista. Por último, propondremos qué modelos de transparencia y rendición de cuentas podemos aplicar para litigar algoritmos que vulneren nuestros derechos.
Bio: Ana Valdivia es investigadora asociada en el Departamento de War Studies del King's College London, dónde investiga el uso de la inteligencia artificial en procesos migratorios. Es doctora en Machine Learning por la Universidad de Granada. Su investigación ha explorado el uso de algoritmos para el análisis de textos, y más recientemente el diseño de sistemas socio-técnicos que sean éticos, transparentes y justos. Preocupada por el impacto que la inteligencia artificial puede tener en comunidades vulnerables, su interés radica en investigar cómo los actores gubernamentales la están implementando desde una perspectiva interdisciplinar, colaborando con investigadoras de otras disciplinas dentro de las ciencias sociales y la filosofía. Ana también forma parte del colectivo Algorights, una comunidad creada para alertar sobre el riesgo de la inteligencia artificial.
Mapa de la Facultad: https://defc.ugr.es/sites/serv/defc/public/inline-files/Mapa_Fciencias.pdf https://defc.ugr.es/sites/serv/defc/public/inline-files/Mapa_Fciencias.pdf
Protocolo: Se seguirá el protocolo COVID-19 de la facultad de ciencias https://fciencias.ugr.es/facultad/covid-19 https://fciencias.ugr.es/facultad/covid-19 El aforo es limitado: se dará prioridad a miembros de la UGR e investigadores que trabajen en la materia.
Atentamente, Jara Juana
participants (1)
-
Daniel Manzano