Opinión    La ventana de Capgemini

El desafío ético de la inteligencia artificial

Francisco Bermúdez
03 DIC. 2019
8 minutos
El uso de un código ético para implementar los avances de la inteligencia artificial. / Markus Spiske /Unsplash

Actualmente, las corporaciones tienen una responsabilidad con la sociedad en la que operan y por ello deben tomarse muy en serio el reto que presenta el desarrollo de las nuevas tecnologías. La inteligencia artificial (IA), en particular, merece especial atención por el impacto que va a tener en la sociedad y por lo rápidamente que avanza. Precisamente, el uso ético de la IA es una clara y creciente preocupación de los directivos de grandes compañías, la mayoría de los cuáles afirma que ha sido testigo de algún caso de uso cuestionable de esta tecnología en sus propias empresas.

El desarrollo de la IA es relativamente reciente, lo que significa que si bien existen unos principios morales básicos que conducen las actuaciones de personas y empresas, las reglas éticas concretas sobre cómo aplicarlos a esta tecnología aún no están escritas. Además, la capacidad de la IA de aprender por sí sola, hace que en ciertos casos las consecuencias sean difíciles de prever.

Recientemente hemos visto algunos casos alarmantes en el uso de esa tecnología como, por ejemplo, el caso de un gigante de Silicon Valley que diseñó un algoritmo capaz de aprender automáticamente cuáles son los perfiles más demandados y contratados por las empresas del sector tecnológico. El reto era sin duda interesante y muy útil: un sistema de IA que analizara el currículum de todos los candidatos y seleccionara de forma automática los cinco mejores. Dado que la mayor parte de los empleados en el sector son hombres, la máquina aprendió accidentalmente a discriminar el término "mujer", con lo que asignaba una puntuación menor a todas las personas de este género, en especial a aquellas que habían estudiado o formado parte de instituciones femeninas.

También hay quien considera que los algoritmos de los buscadores de Internet pueden beneficiar sistemáticamente a ciertas tendencias políticas por encima de otras y es habitual estos días verter acusaciones sobre ciertos países que apuntan a un manejo poco ético de las redes sociales para desestabilizar los sistemas políticos de naciones rivales.

Todo esto nos pone en alerta sobre las cuestiones éticas que deben tenerse en cuenta con el uso de esta tecnología, teniendo siempre muy presente que, en el mundo de los negocios, la responsabilidad no es únicamente de los ejecutivos de la compañía, sino de todas las personas que integran la corporación.

Por ello, podemos establecer una estrategia en varias capas de la organización para responder a este desafío, empezando por la alta dirección, que debe ser la punta de lanza de esta cuestión, y crear unos fundamentos sólidos con la construcción de un código ético específico con principios que guíen los pasos de la compañía. Una buena base se encuentra en la Guía ética para una Inteligencia Artificial fidedigna que la Comisión Europea ha publicado este año y que destaca siete principios que deben dirigir el desarrollo de esta tecnología. A su vez, las organizaciones deben crear equipos diversos que aseguren la sensibilidad respecto a los diferentes aspectos éticos, así como estructuras de gobernanza que garanticen que se rindan cuentas al respecto.

Un ejemplo claro de la aplicación de estos códigos de buena conducta está en el área Ventas y Marketing que tiene la responsabilidad de avisar a los clientes de que están interactuando con máquinas y velar porque éstas no utilicen un lenguaje sexista o racista. También deberán asegurar que el acceso a sus productos o precio para diferentes grupos demográficos no sea discriminatorio. Otro aspecto clave es crear incentivos que respalden un uso adecuado de los sistemas de IA, así como educar e informar a los usuarios para generar confianza a la vez que se capacita a los empleados para que alcen la voz en caso de que vean usos de esta tecnología cuestionables o que puedan suscitar problemas éticos.

Otro caso claro de buen gobierno estaría en el Departamento de Selección, que debe ser responsable de que no haya discriminación en la contratación de empleados o en la revisión de sus desempeños, a la vez que asegura que la recogida y tratamiento de los datos de los trabajadores es correcta.

El colectivo de los desarrolladores es especialmente clave, puesto que son los responsables de hacer que los sistemas de IA sean transparentes para que las conclusiones que arrojan puedan ser explicadas. Para ello, deben construir herramientas que superen el problema que genera la "caja negra" de la IA y el machine learning. Este es el nombre que recibe el fenómeno por el que los sistemas aprenden a tomar sus propias decisiones a partir de los datos, lo que imposibilita explicar cómo llegan a estas conclusiones. Mientras, a la hora de gestionar los datos, no solo es importante respetar la RGPD, también es imprescindible asegurar que la información introducida no incluye sesgos para evitar discriminaciones o conclusiones erróneas.

En definitiva, el compromiso de las organizaciones con un código ético adaptado al uso de una tecnología tan impactante como la IA, tiene que ser real y abarcar a toda la organización. Es clave que la dirección tome un rol protagonista en este proceso, con el objetivo de impulsar e implicar todos los profesionales en este desafío ético, que seguirá creciendo y profundizándose conforme la digitalización continúe su camino.

Francisco Bermúdez, consejero delegado de Capgemini España