La inteligencia artificial (IA) promete revolucionar nuestro mundo.
Los recientes avances en estas tecnologías ya han ayudado en una gran variedad de disciplinas en las ciencias de la vida, desde la comprensión de las estructuras de las proteínas hasta el seguimiento de las migraciones durante la Edad del Bronce. Podrían ayudar a mejorar el diagnóstico del melanoma o combatir la resistencia a los antibióticos. En una reciente entrevista, Eduard Sabidó, jefe de la Unidad de Proteómica del CRG y la UPF, pronosticaba que pronto todos los investigadores utilizarán algoritmos de aprendizaje automático.
Pero como con la mayoría de las herramientas, la IA puede tener impactos tanto positivos como negativos. Si se hace correctamente, la IA puede hacer que la atención médica y otros servicios sean más eficientes, más rápidos, más baratos y más justos para todas las personas. Pero si no tenemos cuidado, la IA también puede exacerbar los sesgos existentes, como los sesgos de género, los sesgos raciales o los sesgos contra otras minorías o colectivos vulnerables. Y ya hay muchos ejemplos de tales situaciones.
Estos sesgos pueden tener muchas causas diferentes; pero todos ellos tienen consecuencias muy reales para quienes los padecen, como muestra el reciente documental «Coded bias» (ver tráiler abajo).
Causas y soluciones: mesa redonda el 30 de noviembre
El comité de Igualdad, Diversidad e Inclusión del Parque de Investigación Biomédica de Barcelona (PRBB) ha unido fuerzas con investigadores del Departamento de Tecnologías de la Información y las Comunicaciones de la UPF (DTIC-UPF) y del Barcelona Supercomputing Center (BSC-CNS) y ha organizado un evento para discutir estos sesgos, su efecto y qué se puede hacer para reducirlos.
El acto, que tendrá lugar el 30 de noviembre, de 15 a 18 horas en el auditorio del Campus de la UPF Poblenou (c/Roc Boronat 138) y será en inglés, constará de un par de charlas breves seguidas de dos mesas redondas.
Expertos y expertas discutirán cómo la IA puede soportar discriminaciones de género, raciales y de otro tipo, tanto en medicina como en otros campos, y cuál podría ser el impacto de estos algoritmos sesgados.
Finalmente, tendremos dos mesas redondas para discutir qué se puede hacer para resolver estos problemas, desde un punto de vista técnico y también social, y para garantizar que la IA proporcione los beneficios que promete de manera justa para todos.
El acto, en inglés, tendrá lugar el 30 de noviembre, de 15 a 18 horas en el auditorio del Campus de la UPF Poblenou.
Los y las participante incluyen personas expertas del mundo de la ciencia de datos, inteligencia artificial, salud pública y movimientos sociales:
- Davide Cirillo (Barcelona Supercomputing Centre, BSC-CNS)
- Oyidiya Oji Palino (European Network AntiRacism)
- Paula Petrone (Barcelona Institute for Global Health (ISGlobal))
- Manuel Portela (DTIC-UPF)
- Nataly Buslón (BSC)
- Paula Subías (Algorights, Eurecat)
- Akinola Akinbote (European Molecular Biology Laboratory – Barcelona (EMBL Barcelona))
Puedes inscribirte aquí en este evento, gratuito y abierto a todas las personas, que tendrá lugar el 30 de noviembre, de 15 a 18 horas, en el auditorio del Campus UPF Poblenou (c/Roc Boronat 138).
¡Te invitamos a seguir y participar en la conversación en las redes sociales con #BiasTechMed!
UPDATE
Ya podéis ver el vídeo entero aquí (en inglés):