Gemma Galdón Clavell es parte de la organización Éticas, que tiene actividad en España, América Latina, África, Europa y Estados Unidos, e investiga con el fin de proteger a las personas de los procesos tecnológicos. “Porque vemos cómo la inteligencia artificial (IA) no funciona igual para todo el mundo, y no todos tenemos la posibilidad de disfrutar de los avances tecnológicos con el mismo nivel de confianza y seguridad”, comentó en ocasión de su participación en el seminario «Ni éticos ni neutrales: los retos de la IA de alto impacto» organizado por el CICADA.
¿Por qué es importante la ética de los datos?
“La única forma de entender la tecnología y los datos es entender el mundo que les da
lugar”, comentó Gemma, historiadora que trabajó en el mundo privado y se doctoró en políticas tecnológicas. “Estamos constantemente exigiendo a los ingenieros que codifiquen un mundo que no entienden. No es que no lo entienda por limitaciones, sino que la ingeniería muchas veces se ha desarrollado a las espaldas de esas dinámicas sociales que debe capturar”. Por lo tanto, la única forma de hacer tecnología responsable y que funcione es creando arquitecturas de datos que maximicen todo lo que da la ingeniería con todos los avances en ciencias sociales. Se está trasladando la IA y los algoritmos desde las actividades de ocio a otras más serias que pueden permitirse niveles de error que en un tratamiento médico no podría tolerar: “en ese salto cualitativo, la tecnología tiene que cambiar: lo que en Marketing funciona, no funciona bien en espacios de altos riesgos como la Medicina”.
El desarrollo de algoritmos debe parecerse más a un yogur
“Para que podamos ir a comprar un yogurt, el control empieza con la vaca. Hay regulaciones de cual tiene que ser la salud y los controles de la vaca, la temperatura y el control en el traslado de la leche. Hay controles que determinan cómo hacer el proceso de la pasteurización, hay condiciones de transporte de la leche hasta la planta envasadora. De la planta envasadora al supermercado, condiciones de mantenimiento del producto en el supermercado, y si cuando lo compramos algo va mal en el yogurt, tenemos toda la Legislación de derechos de consumidor que nos ampara. Todo lo que llega a nuestras manos en sociedades democráticas, está controlado para asegurar la salud de las personas. Esto no pasa con las IA e iniciativas tecnológicas”, explicó la especialista.
Gemma planteó que si no se crean ecosistemas de normas que hagan que la IA llegue a impactar a la sociedad en las mismas condiciones de seguridad que lo hace un yogur, lo que se haga llevará al fracaso de esa tecnología y básicamente se pondrá en riesgo el desarrollo mismo de la IA.
Herramientas desarrolladas en la organización Éticas: Auditar algoritmos de alto impacto
Existe una metodología publicada que permite identificar y chequear los momentos de sesgo, discriminación y deficiencias. Esto comienza con la elección de datos de entrenamiento, luego identificar si hay sesgos históricos, los modelos utilizados y hasta buscar sesgos de implementación.
“La nueva legislación europea habla de auditorías, en 5 años nos parecerá tan brutal que no
se auditaran algoritmos como cuando los coches no tenían cinturón de seguridad”, sostuvo.
Prospectos algorítmicos
Los prospectos algorítmicos con una adaptación del prospecto de un medicamento, permiten, sin tener acceso al código, entender los ingredientes, la posología ante un consumo de un sistema de IA. Se ha diseñado un cuestionario que deben completar los desarrolladores, que proporciona la transparencia en base a cuáles son los fines del sistema, cómo funciona, qué testeos de eliminación de sesgos se han incorporado, si alguien ha auditado el algoritmo y cuáles son las vías para que una persona que se sienta negativamente afectada pueda ser resarcida de los derechos mermados.
Registros de algoritmos
Gemma entiende que la población no sabe dónde hay algoritmos. Se manda un CV para buscar empleo, y no se suele saber que el primer filtro será un algoritmo. “Por mucho que le llamemos IA no es ni inteligencia ni artificial, por tanto debemos saber cuando lidiamos con una persona o una máquina”, sostuvo y recomendó: “Los Estados deben tener registros de algoritmo de impacto social (escuela, hospital, etc)”.
Más información sobre los seminarios de CICADA sobre “Ética y Ciencia de datos, clic aquí.
Para ver el seminario completo, clic aquí.