Profesionales    PERSONAJES ÚNICOS

Más diligencia en las empresas para una inteligencia ética

Joanna Bryson, experta en IA de la Hertie School, alienta a impulsar las cadenas de responsabilidad para garantizar la ética de los algoritmos

19 MAR. 2020 - Madrid
7 minutos
Joanna Bryson, profesora de la Universidad de Bath
Joanna Bryson, profesora de la Universidad de Bath / INNOVADORES

Joanna Bryson es investigadora de la Hertie School de Berlín y, antaño, profesora asociada en el Departamento de Informática de la Universidad de Bath. Curiosamente, su perfil no invitaba a pensar que tuviera relación con este ámbito: estudió ciencias del comportamiento por la Universidad de Chicago, aunque desde que se mudara a Reino Unido en 1991 ya se especializó en el área de inteligencia artificial que le sigue ocupando a fecha de hoy.

"Yo cuando era pequeña ya tenía interés por la tecnología, siempre tuve estas inclinaciones por la mecánica. Desarmaba los teléfonos que había por la casa y empecé a programar en la educación secundaria. Ya en la universidad, quise entender cómo pensaban los animales y cuáles eran las diferencias con la inteligencia humana", explica Bryson a INNOVADORES. "Al principio me parecía ciencia ficción, pero en algún momento me di cuenta de la IA era una muy buena forma de entender la inteligencia natural. Y también de entender las concepciones éticas que implica todo este camino, algo que me llevó 15 o 20 años descubrir que los profesionales no entendían: desconocían lo que es el ser humano y por qué eso es importante".

De hecho, cómo llevar unos valores mínimos al mundo de la inteligencia artificial es la obsesión de Joanna Bryson en estos momentos. Y, en especial, de cómo poder dotar de un mínimo de gobernanza a esas tecnologías que eviten abusos por parte de las grandes corporaciones. "Todo producto digital debe ser regulado, pero las compañías tratan de esquivar las obligaciones ordinarias a la hora de vendérselo a la gente. Nos tendríamos que preguntar si están aplicando las normas correctamente, si hay alguna forma de optimizar el producto para resolver los problemas de la tecnología que nos llevan acompañando 40 años o si tenemos una estrategia clara de desarrollo futuro", destaca la experta, recientemente invitada por Ametic para ofrecer una ponencia en Madrid.

En ese sentido, Bryson gusta del término ‘diligencia debida’ para referirse a la actitud con que compañías como Facebook han jugado al perro y el gato con la ética en su operativa habitual, especialmente a raíz de escándalos de privacidad como el de Cambridge Analytica. "Las empresas deben hacerse responsables de todo el software que desarrollan, incluidos los errores o malfuncionamientos del sistema. No vale decir que algo estaba mal diseñado o con un código deficiente: hay que saber quién lo escribió, quién lo probó, qué bibliotecas se utilizaron, si hay alguna puerta trasera... Si los gobiernos empiezan a entender esto, comenzarán a revisar el software para evitar estos incidentes. Porque para las empresas, para los ingenieros, esta diligencia debida no deja de ser algo molesto, que les impide ir todo lo rápido que quisieran para ofrecer una nueva versión de su software. Y en el camino abandonan las buenas prácticas".

Una cascada de autoridad que aún no es estándar en el mundo de la tecnología, menos aún en el universo de las cajas negras en que operan muchas herramientas de inteligencia artificial. En palabras de Joanna Bryson, "al final sucederá como en cualquier otra industria. Imaginemos un banco, que por culpa de un único comerciante se ve obligado a declarar la quiebra. Si ese comerciante era corrupto o hizo algo estúpido es su culpa, obviamente, pero alguien debía estar vigilando esa actividad. Entonces el gobierno responsabilizaría al banco y éste, a su vez, responsabilizaría a la persona. Existen múltiples niveles de responsabilidad pero la gente está haciendo una especie de dicotomías falsas sobre que todo recae en el programador y en el código en sí, cuando hay mucho más a nivel de empresa o sistema de gobierno corporativo".

Un debate que no estaría completo sin hablar de los sesgos, una de las primeras fronteras morales que enfrenta la IA en su llegada al mundo empresarial. "Es imposible obtener un sesgo cero. No se puede tener un modelo perfectamente justo, porque para empezar habría que definir qué es justo, bueno o correcto. En ocasiones tratar a la gente exactamente igual es injusto, no es un concepto sencillo. Lo que me interesa es que estos sesgos no se apliquen porque haya personas interesadas en que existan. Por ejemplo, el sistema de IA que predecía en California las probabilidades de que un delincuente reincidiera no parece que tuviera unos sesgos provocados por un incompetente programador, sino como si alguien quisiera hacerlo deliberadamente", concluye Bryson.